Esta semana el presidente de Microsoft se unía al club de los líderes de empresas que han lanzado importantes herramientas de inteligencia artificial al gran público y luego nos dan advertencias alarmantes. En el caso de Microsoft, lo que más chirría es que la empresa despidió a todo su equipo de ética mientras ultimaba sus grandes lanzamientos en el campo de la IA este año (lo que incluso le ha valido una reprimenda pública de las autoridades de Estados Unidos).
Muchos de los gigantes tecnológicos creadores de herramientas de IA hablan de regular estas herramientas pero dicen que han de ser los gobiernos quienes lo hagan, mientras se lavan las manos al respecto.
Pero, al mismo tiempo, tampoco hay informaciones que las empresas compartan con las autoridades nacionales o supranacionales de en qué se está trabajando (lo que tiene lógica porque tienen que mantener sus planes sin filtrar para evitar que la competencia les copie) para que puedan adelantarse a los acontecimientos.
Esto, todo junto, hace que tengamos en nuestras manos poderosas herramientas de IA (y todo lo que se espera que está por llegar), pero sin ninguna regulación.
La necesidad de regular la IA según sus creadores
Mira Murati, una de las grandes mentes tras ChatGPT y, probablemente, la mujer más poderosa en inteligencia artificial, tiene una vida muy discreta en la que hay pocos documentos con sus opiniones e ideas, pero ha visitado el programa estadounidense The Daily Show de Trevor Noah y ahí se tocaron temas interesantes como la regulación de las inteligencias artificiales o la ética en estas tecnologías.
En una entrevista a Time ya había dicho que la IA puede ser mal utilizada, o puede ser utilizada por mala gente. Entonces, hay preguntas sobre cómo se controla el uso de esta tecnología a nivel mundial. Ella considera que, más que las empresas, deberían ser los gobiernos y entes reguladores quienes toquen estas cuestiones.
El Center for AI Safety es una ONG que quiere "reducir los riesgos a nivel de sociedad que conlleva la IA" y hace unos meses, en su web se publicaba el "Comunicado sobre el riesgo de la IA". Este comunicado, en el que participa también creadores, académicos, periodistas y reguladores entre otras, pretende avisar de los peligros de desarrollar esta tecnología de forma inadecuada. Afirma este escueto comunicado que:
"Mitigar el riesgo de extinción por la IA debería ser una prioridad mundial, junto con otros riesgos sociales a gran escala como las pandemias y la guerra nuclear".
Empresas que se han unido para su propia regulación
Con todo esto, hay grandes empresas que han anunciado uniones y medidas para su regulación, pero por ahora no está claro que sea algo efectivo o marketing. Por ejemplo, el julio, los creadores de ChatGPT se unen a Microsoft y Google para regular el desarrollo de la inteligencia artificial.
Cuatro de los principales actores de la IA anunciaban una unión para formar un nuevo organismo de la industria diseñado para garantizar el "desarrollo seguro y responsable" de la inteligencia artificial.
Así, el desarrollador de ChatGPT OpenAI, Microsoft, Google y Anthropic han anunciado el Frontier Model Forum, una coalición que se basa en la experiencia de las empresas miembro para desarrollar evaluaciones técnicas y puntos de referencia, y promover mejores prácticas y estándares.
Iniciativas para regular la IA
En la Unión Europea, en julio la Comisión anunció que como parte de su estrategia digital, la UE quiere regular la inteligencia artificial (IA) para garantizar mejores condiciones de desarrollo y uso de esta tecnología innovadora. La IA puede aportar muchos beneficios, como lo son una mejor asistencia sanitaria, un transporte más seguro y limpio, una fabricación más eficiente y una energía más barata y sostenible.
En abril de 2021, la Comisión propuso el primer marco regulador de la UE para la IA. Propone que los sistemas de IA que puedan utilizarse en distintas aplicaciones se analicen y clasifiquen según el riesgo que supongan para los usuarios. Los distintos niveles de peligro implicarán una mayor o menor regulación. Una vez aprobadas, serán las primeras normas del mundo sobre IA.
Italia llegó a prohibir en marzo a ChatGPT “con efecto inmediato” por tener serias dudas de su política de protección de datos. Fue la autoridad pública Garante per la protezione dei dati personali (el equivalente a la Agencia de Protección de Datos en España) la que ha dado la orden de limitar el procesamiento de los datos italianos por parte de OpenAI "con efecto inmediato", abriendo de manera paralela una investigación.
Luego volvió a permitirlo aunque se le pidió ciertos cambios a la gran herramienta de OpenAI. En aquel momento, OpenAI contaba con un plazo de 20 días para demostrar que cumple con la ley, lo que en la práctica se traduce en tomar medidas. Si no se ajustaba a este plazo, la prohibición pasaría de provisional a permanente y se contemplaban sanciones económicas.
En España se ha hablado en diversas ocasiones de regular, aunque más en el pasado y no hay decisiones contundentes de este año 2023 mientras esta tecnología se muestra imparable. En 2020 el Gobierno anunciaba la inversión de 600 millones de euros en un nuevo plan laboral que se apoyará en la Inteligencia Artificial y también se planteó una agencia pública que supervise el uso de los algoritmos y de la IA en España.
Imagen| Foto de Lenin Estrada en Unsplash
En Genbeta | https://www.genbeta.com/a-fondo/amenaza-inteligencia-artificial-real-estos-20-empleos-riesgo-ser-sustituidos-ia
Ver 2 comentarios