Tanto usuarios como empresas están adoptando cada vez más tecnologías basadas en inteligencia artificial. Éstas han llegado para facilitarnos la vida, sobre todo en las tareas más tediosas. Es el caso de IAs generativas como ChatGPT, que gracias a su potente modelo de lenguaje GPT-4 es capaz de ayudarnos en todo tipo de situaciones mientras nos responde y procesa en lenguaje natural.
No obstante, también es importante conocer los riesgos que conlleva el uso de este tipo de tecnologías. No es la primera vez que ciertas compañías y altos cargos muestran su preocupación sobre el rumbo de la inteligencia artificial. En el caso de Google, a pesar de haber lanzado Bard, también quiere atar todos los cabos posibles con respecto a la seguridad. Por ello, ha lanzado Secure AI Framework (SAIF), una especie de hoja de ruta con el fin de arrojar algo de luz sobre mecanismos de seguridad específicos para combatir los peligros de un mal uso de la inteligencia artificial.
Ideas básicas para que las empresas fortifiquen su seguridad
Si bien actualmente se trata de un framework aún en pañales, la compañía ha querido explicar el concepto de esta idea y los planes a futuro que tiene Google para colaborar en una comunidad que use la inteligencia artificial de forma segura. Para ello han publicado una entrada explicando todo esto en su blog.
La intención de Google con SAIF es básicamente ayudar a otras empresas y organizaciones a que apliquen los mecanismos básicos de seguridad y control sobre sus sistemas basados en inteligencia artificial y protegerse de la nueva oleada de amenazas que aprovechan estas tecnologías.
Esto es importante debido a que podría ayudar a las compañías a protegerse ante ataques de hackers que aprovechen sus sistemas de inteligencia artificial para manipular sus modelos o robar los datos con los que fueron entrenados dichos modelos. Google ha resumido su esquema de seguridad en seis elementos clave:
- Expandir la protección a la infraestructura y al ecosistema IA.
- Extender la detección y respuesta hacia las amenazas que se presenten.
- Integrar la IA en defensa contra otras amenazas también basadas en IA.
- Harmonizar el control en la plataforma para garantizar una seguridad consistente en toda la organización.
- Adaptar los controles para ajustar medidas que mitiguen los daños y generar rápidamente bucles de feedback para el despliegue de IA.
- Contextualizar sobre los riesgos de los sistemas basados en IA en demás procesos de la empresa.
Si bien se trata de un plan todavía muy prematuro, parece que Google quiere por el momento que las organizaciones y empresas tengan una mínima idea elemental sobre seguridad en inteligencia artificial. "Aunque la gente busque enfoques más avanzados, debe recordar que también hay que tener en cuenta lo básico," asegura Phil Venables, responsable de seguridad en Google Cloud.
En los últimos meses han aparecido todo tipo de amenazas relacionadas con el uso indebido de la inteligencia artificial. Un ejemplo es la inyección de prompts, que consiste en engañar a la IA con comandos maliciosos e ideas "escondidas" en bloques de texto para intentar cambiar el comportamiento de la IA y obtener información confidencial.
Entre demás amenazas podemos encontrar robo de modelos que hayan entrenado a la IA o 'data poisoning', que consiste en inyectar datos corruptos al modelo para cambiar su comportamiento y tener así el control. Si bien la idea de Google de adoptar medidas más férreas contra las amenazas basadas en inteligencia artificial es algo que las empresas deben de estandarizar, se nota que aún no hay mucho esfuerzo dedicado a SAIF, por lo que toca esperar para conocer en qué desemboca todo.
Imagen | Hitesh Choudhary
Ver 2 comentarios