Sam Altman, CEO y cofundador de OpenAI, compareció ayer ante el Senado estadounidense para ser interrogado por los legisladores acerca de las amenazas potenciales que trae bajo el brazo el actual 'boom' de la inteligencia artificial, un boom liderado por su propia compañía gracias al impacto de productos como ChatGPT o DALL-E 2.
Y si hay algo que están destacando los analistas es que la comparecencia de ayer podría ser una de las primeras ocasiones en que los líderes de una nueva industria se presenten ante los políticos prácticamente pidiendo al gobierno que los regule… y que los políticos les responden cómo de hecho quieren el filete normativo.
"Esta es su oportunidad, hablen en un lenguaje sencillo y díganos qué reglas implementar", llegó a afirmar el senador John Kennedy (sin relación con ese John Kennedy en el que estás pensando).
Reguladores ❤️ Gran industria
Muchas voces se han alzado criticando ese planteamiento, que suena casi a pedir que los líderes políticos escriban leyes al dictado de los líderes empresariales. Peor aún, de los actuales líderes empresariales, lo que puede permitirles establecer leyes a su medida que les blinde ante futuros competidores (en la UE ya estamos empezando a experimentar eso, con borradores de normas que, de aprobarse, dejarían en la cuneta a las alternativas open source).
Altman pidió específicamente la creación de "una nueva agencia que otorgue licencias a cualquier proyecto que se sitúe por encima de cierto nivel de capacidades", auditorías independientes y realización de pruebas previas al despliegue de nuevas IAs avanzadas. Un modelo basado en la concesión y pago de licencias, así como en la obligación de instaurar determinadas salvaguardias, no parece ser algo que vaya a perjudicar a Microsoft, Google u OpenAI.
Las empresas tecnológicas saben que la regulación, de una manera u otra, terminará llegando, y están haciendo todo lo posible para moldearla en su beneficio. Y un modelo legislativo que frene en seco la meteórica evolución de los modelos open source con respecto a los privativos (y, dentro de los privativos, los de los gigantes de Silicon Valley frente a las nuevas startup) parece lo mejor que podrían lograr.
Altman, de hecho, hizo el gesto de preocuparse más por la comunidad open source que los representantes de la soberanía popular, reconociendo que quizá no todas las empresas deban someterse al régimen de licencias que él defiende… pero a continuación puso el límite en capacidades concretas (como que un chatbot pueda o no influir en las opiniones políticas de alguien) que a efectos prácticos obligarían a todos sus rivales open source a pasar por caja.
De hecho, hay que preguntarse si directamente tendrán cabida legal los modelos de IA open source que, por definición, no pueden existir sin permitir a los usuarios desactivar las salvaguardas que los participantes en la sesión de ayer solicitaron implementar por ley en todo producto de IA lanzado al mercado.
Los peligros
Además de esa agencia, que operaría en el ámbito de los EE. UU., Altman abordó explícitamente un paralelismo que ya ha utilizado otras veces: el de una agencia internacional que regule la IA del mismo modo en que la Agencia Internacional de la Energía Atómica se encarga de lo nuclear.
"Mis peores temores son que nosotros, la industria tecnológica, causemos un daño significativo al mundo".
"Si esta tecnología sale mal, puede salir bastante mal. […] Queremos trabajar con las instituciones para evitar que eso suceda", dijo Altman, quien también reconoció que "habrá un impacto sobre los empleos, tratamos de ser muy claros con respecto a eso". Sin embargo, también dijo estar seguro de que la IA será la puerta para que aparezcan "empleos mejores" y que tiene potencial para ser algo "tan grande como la imprenta".
El masaje
La mayoría de las preguntas dirigidas a Altman por los senadores estadounidenses mostraron un tono bastante más amistoso que el que han exhibido en comparecencias anteriores de líderes de la industria tecnológica. "Estamos aquí para intentar hacernos una idea de lo que pueden hacer estos modelos", llegó a decir el senador Josh Hawley.
Uno podría pensar que la idea es que tienen que ir con esa información más que estudiada al Senado, y una vez allí interrogar a la gente de la industria sobre el efecto de sus decisiones…
Lo gracioso es que quizá la intervención más inquisitiva fue la de su compañera Marsha Blackburn, de Tennessee, muy preocupada por las implicaciones de la inteligencia artificial generativa en materia de copyright… a causa de su impacto sobre la industria del country de Nashville.
La nota curiosa
Richard Blumenthal, senador demócrata por Connecticut, fue —como presidente del subcomité de 'Privacidad, tecnología y legislación'— el responsable de inaugurar la sesión. Sin embargo, durante los primeros momentos de su intervención, Blumenthal no abrió la boca: se limitó a dejar que sonara una grabación con su voz introduciendo el tema a debatir. Sólo que, como explicó a continuación:
"esa voz no era la mía, las palabras no eran mías, y el audio era un software de clonación de voz de IA entrenado con mis intervenciones en la tribuna".
¿El texto? Generado por ChatGPT tras preguntarle de qué podía hablar sobre el tema.
"Este audio puede pareceros algo curioso o divertido, pero lo que no dejaba de repetirse en mi cabeza fue ¿y [si otra persona lo hubiera hecho y] me hubieran hecho respaldar la rendición de Ucrania o el liderazgo de Vladimir Putin?. Eso hubiera sido realmente aterrador".
Ver todos los comentarios en https://www.genbeta.com
VER 2 Comentarios