San Francisco – La Casa Blanca convocó a los directivos de empresas avanzadas en inteligencia artificial (IA), como Google, Microsoft, OpenAi y Anthropic, para iniciar una “discusión sobre “los riesgos” asociados a esta tecnología. En la reunión, realizada ayer, intervinieron altos miembros del Gobierno, entre ellos la vicepresidenta Kamala Harris.

“Nuestro objetivo es tener una discusión franca sobre los riesgos actuales y a corto plazo que percibimos en los desarrollos de IA”, dijo en la invitación.

El Gobierno de Joe Biden también busca discutir “pasos para reducir esos riesgos, y otras maneras en que podemos trabajar juntos para asegurarnos de que los estadounidenses se beneficien de los avances de la IA a la vez que estén protegidos de peligros”.

Satya Nadella (Microsoft), Sundar Pichai (Google), Sam Altman (OpenAI) y Dario Amodei (Anthropic) acudieron a la cita, dijo la Casa Blanca.

La inteligencia artificial ha estado presente en la vida cotidiana durante años, desde los algoritmos de recomendación de las redes sociales hasta los electrodomésticos de alta gama. Sin embargo, el deslumbrante éxito desde fines del año pasado de ChatGPT, la interfaz de IA generativa de OpenAI, una empresa emergente financiada ampliamente por Microsoft, fue el punto de partida para una carrera hacia sistemas cada vez más intuitivos y eficientes, que son capaces de generar textos, imágenes y códigos de programación cada vez más complejos.

Su lanzamiento despertó entusiasmo e inquietudes a una nueva escala. Especialmente cuando Sam Altman, el director de OpenAI, anticipó la próxima generación de la llamada IA “general”, donde los programas serán “más inteligentes que los humanos en general”.

Peligros

Los riesgos de la IA van desde la discriminación por algoritmos hasta la automatización de tareas realizadas por humanos, el robo de propiedad intelectual o la desinformación sofisticada a gran escala, entre otros. Es más, los propios responsables de ChatGPT han admitido no saber cómo evolucionan y aprenden esos sistemas, lo que, en un extremo, podría llevar a que se independicen, creen sus propias IA y realicen actos maliciosos en red, tal como ha surgido de inquietantes diálogos mantenidos por especialistas con los chats.

“Los modelos de lenguaje capaces de generar imágenes, sonido y video son un sueño hecho realidad para quienes quieren destruir las democracias”, advirtió el profesor de UC Berkeley, David Harris, especialista en políticas públicas e IA.

Un problema mencionado frecuentemente por los especialistas es que se haga imposible discernir entre realidad y ficción en base a las fotos, audios y videos creados enteramente con esas herramientas.

A fines de 2022, la Casa Blanca publicó un “Plan para una Declaración de Derechos de la IA”, un breve documento que enumera principios generales como la protección contra sistemas peligrosos o falibles.

A principios de este año, el Instituto Nacional de Estándares y Tecnología (NIST), un centro afiliado al Gobierno, diseñó un “marco para la gestión de riesgos” en la materia.

Biden dijo el mes pasado que estas empresas “claramente deben asegurarse de que sus productos sean seguros antes de ponerlos a disposición del público en general”. Sin embargo, “estas directrices y declaraciones no obligan a las empresas afectadas a hacer nada”, subrayo David Harris, quien fue director de investigación en IA en Meta.

Al otro lado del Atlántico, Europa espera liderar de nuevo el camino hacia una regulación ad-hoc en torno a la IA, como ya los hizo con la ley de datos personales.

Cabe recordar que Elon Musk y cientos de expertos mundiales firmaron recientemente un llamado a hacer una pausa de seis meses en la investigación sobre inteligencias artificiales al advertir de “grandes riesgos para la humanidad”.

En la petición, publicada en el sitio futureoflife.org, pidieron una moratoria hasta que se establezcan sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la “dramática perturbación económica y política, especialmente para la democracia, que causará la IA”.

Los gigantes de la IA no niegan que existan riesgos, pero temen que se asfixie la innovación con regulaciones demasiado restrictivas.

“Estoy seguro de que la IA será utilizada por actores maliciosos, y sí, va a causar daños”, dijo el economista jefe de Microsoft, Michael Schwarz, durante un panel en el Foro Económico Mundial de Ginebra, según Bloomberg. Sin embargo, pidió a los legisladores que no se apresuren y que cuando haya un “daño real”, se aseguren de que “los beneficios de la regulación sean mayores que el precio para la sociedad”.