Una de las mayores empresas de IA alerta de que en un año habrá empleados virtuales con IA. Y no lo ven bueno para la ciberseguridad

Si un humano ataca el sistema de una empresa, puede ser castigado por ley.... pero ¿qué pasa si quien hace algo así es una inteligencia artificial?

Brett Jordan Nuig3zeskli Unsplash
Sin comentarios Facebook Twitter Flipboard E-mail
barbara-becares

Bárbara Bécares

Editor

Anthropic prevé que habrá empleados virtuales impulsados ​​por IA en el próximo año, según declaró Jason Clinton, que es el principal responsable de seguridad de la compañía a Axios en una entrevista.

En seguridad, esto implica que los agentes autónomos responderán a alertas de phishing y otros indicadores de amenazas. Según las novedades, los empleados virtuales llevarían esa automatización más allá ya que se está trabajando "para estas identidades de IA tengan sus propias "memorias", sus propios roles en la empresa e "incluso sus propias cuentas y contraseñas corporativas".

Anthropic asume que existen dos responsabilidades que hay que tener en cuenta para abordar los desafíos de seguridad relacionados con la IA. Primero, probar exhaustivamente los modelos de Claude para garantizar que resistan ciberataques; y, en segundo lugar, monitorear los problemas de seguridad y mitigar las formas en que los actores maliciosos puedan abusar de Claude, todo según las palabras de Clinton.

Es curioso que esta misma empresa haya pedido a los trabajadores humanos que no usen la IA para crear sus currículums o cartas de motivación cuando quieran acceder a alguna vacante en la firma, porque buscan conocer sus habilidades reales.

Un vistazo a…
Cómo mejorar la SEGURIDAD EN INTERNET: VPN, DNS y páginas con HTTPS

Grandes problemas de seguridad que resolver

El directivo afirma que hay muchos problemas de seguridad en torno a los empleados virtuales que la empresa no ha resuelto y que necesita solucionar. Según Axios, esos problemas incluyen cómo proteger las cuentas de usuario de los empleados de IA, qué acceso a la red se les debe otorgar y quién es responsable de gestionar sus acciones, añadió Clinton.

Como ejemplo, explica que los administradores de red ya tienen dificultades para monitorear qué cuentas tienen acceso a varios sistemas y defenderse de los atacantes que compran contraseñas reutilizadas de cuentas de empleados dentro de la Dark Web. Los empleados de IA podrían actuar de forma no autorizada y atacar o modificar el sistema de la empresa (donde se fusiona y prueba el nuevo código antes de su implementación) mientras realizan una tarea, dijo Clinton.

En caso de suceder algo así, en el mundo de los empleados humanos, esto constituye un delito que conlleva un castigo para la persona. Y se pregunta el directivo de Anthropic: “En este nuevo mundo, ¿quién es responsable de un agente que llegó a ese punto?”.

Clinton dice que está especialmente interesado en soluciones que proporcionen visibilidad sobre lo que hace una cuenta de un empleado de IA en un sistema, así como en herramientas que creen un nuevo sistema de clasificación de cuentas que contabilice mejor a los empleados virtuales.

La IA escribiendo todo el código

Hace un mes, Dario Amodei, CEO de Anthropic, afirmaba que, pronto, casi todo el código podría ser generado por IA. Esta es una empresa de IA fundada por exempleados de OpenAI y que tiene en el mercado al asistente Claude.

Según sus palabras: “Si me fijo en la codificación y la programación, que son áreas en donde la IA está progresando más, lo que estamos descubriendo es que estamos a entre 3 y 6 meses de un mundo donde la IA escriba el 90% del código. Y luego, en 12 meses, podríamos estar en un mundo donde la IA escriba prácticamente todo el código”.

El problema de integrar la IA en el entorno laboral

En el mismo artículo de Axios afirman tener presente que la integración de la IA en el entorno laboral ya está causando problemas, y que “descubrir cómo gestionar a los empleados virtuales no será fácil”.

El año pasado, la empresa de gestión del rendimiento Lattice anunció que los bots de IA deberían formar parte de la plantilla, incluyendo su inclusión en los organigramas corporativos. Sin embargo, la empresa cambió de postura tras una multitud de quejas.

Lattice, una plataforma de gestión del rendimiento con sede en San Francisco, anunció hace unos meses su plan de que los bots de IA fueran tratados como empleados dentro de su software interno: incorporándolos, integrándolos en el organigrama de la empresa y gestionando su rendimiento. Poco después, tuvo que revertir su postura tras las críticas de profesionales de recursos humanos y del sector tecnológico.

Imagen | Foto de Brett Jordan en Unsplash

En Genbeta | Le despidieron con una carta hecha con inteligencia artificial. Para el juez es “impresentable” y lo declaró improcedente

Inicio