jueves, marzo 28, 2024

Dentro de la oscura batalla global para dominar la tecnología más peligrosa del mundo

 En una tarde húmeda de noviembre, la vicepresidenta de Estados Unidos, Kamala Harris, y Nick Clegg, de Meta, entraron penosamente en una gran tienda de campaña en los terrenos de una casa de campo inglesa del siglo XIX al norte de Londres, se sentaron en una mesa circular y, entre otras cosas, se dispusieron a tratando de salvar a la humanidad.

En medio del clima sombrío en Bletchley Park, que había sido utilizado como sede de descifrado de códigos de los aliados durante la Segunda Guerra Mundial, Clegg y Harris se unieron a una reunión de élite de líderes globales, académicos y ejecutivos de tecnología para abordar lo que los pesimistas temen que sea una nueva amenaza devastadora que enfrenta la humanidad. mundo: inteligencia artificial desbocada.

Los políticos y ejecutivos tecnológicos acordaron una declaración conjunta de buenas intenciones después de dos días de conversaciones, pero no obtuvieron una respuesta unificada sobre lo que se debería hacer. En cambio, hicieron propuestas rivales sobre cómo gestionar una tecnología que dominará gran parte de la próxima década y que probablemente trastornará todo, desde los negocios y la atención sanitaria hasta la democracia misma.

Clegg, ex viceprimer ministro británico, argumentó que vigilar la IA era similar a construir un avión que ya estaba en vuelo: un trabajo inherentemente arriesgado y difícil. Harris pregonó los esfuerzos de Washington para abordar los peligros de la IA a través de acuerdos comerciales voluntarios como el estándar de oro mundial. Ursula von der Leyen, presidenta de la Comisión Europea, que también estuvo presente, instó a otros a seguir el nuevo reglamento legalmente vinculante de Bruselas para tomar medidas enérgicas contra la tecnología.

El debate representó una instantánea de una verdad mayor. Durante el año pasado, se ha librado una lucha política en todo el mundo, mayormente en las sombras, sobre cómo (y si) se debe controlar la IA. Este nuevo Gran Juego digital está muy lejos de terminar. Quien gane consolidará su dominio sobre las reglas occidentales para una tecnología que definirá una era. Una vez que se establezcan estas reglas, será casi imposible reescribirlas.

Para quienes presenciaron la conversación de primera mano, el regateo bajo la lluvia británica fue similar a las potencias europeas del siglo XIX dividiéndose el mundo.

“Parecía una realidad alternativa”, dijo Amba Kak, directora del AI Now Institute, una organización sin fines de lucro, que participó en las discusiones. Al final de la reunión, 29 países, entre ellos China, miembros de la Unión Europea y Estados Unidos, firmaron un  acuerdo voluntario para reducir los riesgos que han subido a la agenda política gracias a la llegada de ChatGPT de OpenAI.

En el próximo año, la batalla encarnizada por controlar la tecnología generará ganadores y perdedores. Para finales de 2024, los responsables de la formulación de políticas esperan que se hayan ultimado muchos estándares nuevos de IA.

Para este artículo, POLITICO habló con más de tres docenas de políticos, formuladores de políticas, ejecutivos de tecnología y otros, a muchos de los cuales se les concedió el anonimato para discutir temas delicados, para comprender la dinámica en juego mientras el mundo lidia con esta nueva tecnología disruptiva.

La pregunta que enfrentan es si Estados Unidos, la UE o el Reino Unido –o cualquier otro país– podrán idear un plan sobre el que las democracias occidentales puedan ponerse de acuerdo. Si las economías industrializadas liberales no logran alcanzar un régimen común entre ellas, China puede intervenir y establecer las reglas globales para una tecnología que, en un escenario apocalíptico, algunos temen que tenga el potencial de borrar a la humanidad de la faz de la Tierra.

Mientras Bruselas y Washington presentan sus planes contradictorios para regular la IA, las posibilidades de un acuerdo parecen lejos de ser prometedoras.

Justas en Japón


Un mes antes de la conferencia, bajo la lluvia inglesa, los responsables de las políticas habían estado tratando desesperadamente de lograr avances en el otro lado del mundo. Era octubre y Věra Jourová descendió agotada de su vuelo de 16 horas desde Bruselas a Japón. La política checa llevaba sólo unas semanas en su nuevo rol como principal enviada tecnológica de la UE, y su primera asignación internacional no sería fácil.

La misión de Jourová era vender el libro de reglas de IA de Europa en una reunión del G7 donde los líderes occidentales se habían reunido para intentar diseñar nuevos  estándares globales para la forma más avanzada de esta tecnología, conocida como “IA generativa”, el poderoso desarrollo detrás de ChatGPT y herramientas rivales.

El enfoque de Bruselas está consagrado en la UE Ley de Inteligencia Artificial , el primer intento mundial de legislar de forma vinculante sobre la cuestión. A diferencia de la postura favorecida por Estados Unidos, la visión de la UE incluye prohibiciones de las formas más invasivas de la tecnología y reglas estrictas que exigen que empresas como Google y Microsoft sean más abiertas sobre cómo diseñan productos basados ​​en IA.

"La IA generativa invadió nuestras vidas muy rápidamente y necesitamos algo rápido", dijo Jourová a POLITICO después de tomar el tren bala de dos horas de Tokio a Kioto para la cumbre.

En la reunión de tres días en Japón, Nathaniel Fick tuvo un discurso rival.

Como principal diplomático digital de Joe Biden, Fick, un ex ejecutivo de tecnología, no propuso prohibiciones ni requisitos estrictos. En cambio, presionó por un régimen más ligero basado principalmente en compromisos voluntarios de la industria y las leyes nacionales existentes.

"La gente puede esperar que Estados Unidos incorpore cuestiones de política de inteligencia artificial en todo lo que hacemos", dijo Fick a POLITICO después de que concluyó la cumbre de Kioto. "Los marcos, los códigos y los principios que desarrollemos se convertirán en la base para la acción".

En reuniones de duelo con responsables políticos del G7, ejecutivos de empresas tecnológicas y otras figuras influyentes, Jourová y Fick expusieron sus argumentos.

Para Jourová, de la UE, el discurso era sencillo. Bruselas ya se había destacado como el oficial de policía digital de Occidente, con una avalancha de regulaciones que abarcaban desde proteger la privacidad de los consumidores hasta controlar las redes sociales.

El calendario de la cumbre estaba lleno, con poco tiempo libre más allá de algunas pausas para fumar y almuerzos apresurados en la cafetería. Jourová argumentó que sólo Europa podría ofrecer el rigor necesario. La UE, dijo, podría imponer a las empresas multas enormes y prohibir las formas más invasivas de IA, como la puntuación social, que son algoritmos complejos que rastrean los movimientos de las personas. infamemente usado en China.

“Ella vino con un plan, y era convencernos de que las reglas de Europa eran el único juego disponible”, dijo una de las personas que conoció a Jourová. Otro funcionario de un país del G7 dijo que el jefe digital de Europa desestimó la propuesta alternativa de Washington por su falta de legislación vinculante.

La contraofensiva de Fick se basó en la posición indiscutible de Estados Unidos como potencia mundial en el desarrollo de la IA.

Un estancamiento político en el Capitolio significa que es probable que Washington no llegue pronto a una legislación integral. Pero la Casa Blanca ya ha hecho una avalancha de anuncios. En julio pasado, la administración Biden aseguró compromisos voluntarios de gigantes tecnológicos líderes como Amazon para hacer que la IA sea más segura. Entonces Biden emitió un orden ejecutiva , anunciada el 30 de octubre, que facultaba a las agencias federales para actuar.
El discurso de Fick incluyó criticar la legislación de Bruselas por imponer demasiadas cargas regulatorias a las empresas, en comparación con la voluntad de Washington de permitir que las empresas innoven, según dos personas que se reunieron con Fick en Japón.

"El mensaje fue claro", dijo otro diplomático occidental que asistió a la cumbre del G7 en Kioto. "Washington no iba a dejar que Bruselas se saliera con la suya".

Buena comida antes del apocalipsis


De vuelta en Europa, los esfuerzos por alcanzar un consenso continuaban, en un entorno poco probable.

Una lujosa cena de seis platos en el Palacio del Elíseo, la residencia oficial del presidente francés en París en el siglo XVIII, no es exactamente un grito de alta tecnología.

Pero durante una comida de cinco horas de cocina gourmet y buen vino en noviembre, Emmanuel Macron se reunió con 40 expertos de la industria, incluido el presidente de OpenAI, Greg Brockman, y el principal gurú de IA de Meta, Yann LeCun.

La conversación durante la cena rápidamente derivó hacia la elaboración de reglas.

Macron es un poderoso agente global. Francia tiene una gran industria nacional de IA y el presidente está personalmente ansioso de liderar los esfuerzos internacionales para establecer reglas globales para la tecnología. A diferencia de los estereotipos de los políticos franceses amantes de las regulaciones, Macron permanece cauteloso de la Ley de IA de Bruselas, por temor a que paralice a empresas como Mistral, una startup de IA cofundada por Cedric O, ex ministro digital de Francia.

Mientras Macron escuchaba atentamente, los invitados a la cena expusieron sus propuestas rivales. La discusión expuso otra faceta clave del debate global sobre la IA: el choque entre quienes creen que los riesgos más graves aún están a muchos años de distancia y quienes creen que ya están aquí. Esta es la batalla que está en el centro de todo el debate global. Enfrenta a quienes adoptan un enfoque más optimista sobre el potencial de la IA y quieren permitir la mayor experimentación posible, con otros que temen que ya sea demasiado tarde para proteger a la humanidad de daños graves.

Brockman de OpenAI, uno de los que se muestra relajado respecto a los riesgos inmediatos y cree que la atención debería centrarse en abordar las amenazas a más largo plazo, le dijo al presidente francés que la IA era abrumadoramente una fuerza para el bien, según tres personas que asistieron a la cena. Cualquier regulación, en particular las reglas que podrían obstaculizar el meteórico crecimiento de la empresa, debería centrarse en amenazas a largo plazo como que la IA eventualmente anule el control humano, agregó.

Otros, como Meredith Whittaker, una tecnóloga estadounidense que también estuvo presente en la cena de París en noviembre, argumentó que los daños en el mundo real de la IA existente (incluidos conjuntos de datos defectuosos que arraigaban prejuicios raciales y de género) requerían que los políticos actuaran ahora.

“Macron lo asimiló todo”, dijo uno de los asistentes a quien, al igual que otros presentes, se le concedió el anonimato para hablar de la reunión privada. "Quería que la gente supiera que Francia estaba detrás de una mayor regulación, pero también que Francia también estaba abierta a los negocios".

Argumentos similares –que oponen la necesidad de que las normas se centren en los riesgos a largo plazo frente a una represión inmediata y de emergencia– se están extendiendo ahora en todas las capitales occidentales.

Deepfakes aterradores


Mientras los líderes nacionales intentaban entender el problema, los ejecutivos de tecnología recorrían el planeta instando a los políticos a no regular excesivamente.

Eric Schmidt, ex director ejecutivo de Google, y el fundador de LinkedIn, Reid Hoffman, volaron entre Washington, Londres y París para ofrecer su propia visión sobre cómo manejar la IA, según cinco personas familiarizadas con las discusiones. Una represión demasiado entusiasta, argumentaron los titanes de la tecnología, le daría a la China autoritaria una ventaja decisiva en IA. Muchos, como Schmidt y Hoffman, han invertido mucho en nuevas empresas de IA.

Para reforzar sus argumentos, los jefes tecnológicos que quieren una regulación más ligera se volvieron personales. Los cabilderos de IA mostraron al menos dos líderes occidentales videos falsos realistas, de los propios líderes. Estas falsificaciones generadas por IA todavía están a la vanguardia de la tecnología y, a menudo, son torpes y fáciles de detectar. Pero los cabilderos utilizaron los deepfakes para mostrar a los líderes cómo la tecnología tenía el potencial de evolucionar y plantear riesgos graves en el futuro, según tres personas informadas sobre esas reuniones.

Los opositores afirman que tales tácticas permiten a empresas como OpenAI y Alphabet restar importancia a cómo la tecnología está dañando a las personas en este momento (por ejemplo, rechazando beneficios del gobierno reclamaciones de minorías y personas desfavorecidas de la sociedad.

"La mayoría de los estadounidenses no se dan cuenta de que la IA ya existe", dijo Cory Booker, senador demócrata de Estados Unidos. “Quiero asegurarme de que nuestras leyes actuales contra la discriminación… nuestras leyes actuales que afirman protecciones realmente se estén aplicando”.

De cara a 2024, aquellos que quieren un toque más ligero parecen estar ganando, a pesar de las nuevas normas vinculantes de la UE sobre IA.

Después de que Bruselas llegara a un acuerdo político en diciembre sobre su Ley de IA, Macron –recién salido de su cena personal sobre IA– se puso del lado del canciller alemán Olaf Scholz y de la primera ministra italiana Giorgia Meloni para instar a que se aplicaran menos controles a las últimas formas de esta tecnología. Al presidente francés le preocupaba que dicha regulación obstaculizara a los campeones locales, incluida Mistral, la empresa francesa de inteligencia artificial respaldada, en parte, por Schmidt, el exjefe de Google.

Francia se mantuvo reticente hasta que finalmente cedió a la presión política a principios de febrero para apoyar las reglas, aunque con grandes reservas. “Regularemos cosas que ya no produciremos ni inventaremos”, dijo Macron ante una audiencia en Toulouse después de conseguir algunas excepciones de último momento para empresas europeas. "Esto nunca es una buena idea."

Armas biológicas y grandes tecnologías


Tristan Harris pensó que había asestado un golpe de gracia.

En una audiencia privada entre legisladores estadounidenses y expertos en tecnología en septiembre, Harris, cofundador del Center for Humane Technology, una organización sin fines de lucro, describió cómo sus ingenieros habían obligado al último producto de inteligencia artificial de Meta a cometer un acto aterrador: la construcción de un arma biológica. .

Esto demostró que el enfoque de Meta hacia la inteligencia artificial era demasiado laxo y potencialmente peligroso, argumentó Harris, según dos funcionarios que asistieron a la reunión.

El gigante tecnológico de Mark Zuckerberg favoreció la llamada tecnología de código abierto (IA, fácilmente accesible para todos) con pocas salvaguardias contra el abuso. Tal apertura, agregó Harris, conduciría a daños en el mundo real, incluida la propagación de armas de destrucción masiva generadas por IA. .

Su triunfo no duró mucho. Zuckerberg, que también estuvo presente en la audiencia en Capitol Hill, rápidamente sacó su teléfono y encontró la misma información sobre armas biológicas mediante una simple búsqueda en Google. El contragolpe de Zuckerberg provocó algunas risas en la sala. Emitió la acusación de Harris de que el enfoque de IA de código abierto de Meta era una amenaza para la humanidad.

“No fue tan fácil como Harris pensó que sería”, dijo uno de los funcionarios a los que se concedió el anonimato para hablar sobre la reunión.

El enfrentamiento Harris-Zuckerberg captura otra pregunta clave para los responsables de la formulación de políticas: ¿Debería limitarse la IA a un puñado de empresas confiables o abrirse a todos los interesados ​​para que la exploten?

Según quienes están a favor de conceder licencias de IA avanzada a unas pocas empresas seleccionadas, los riesgos inmediatos son demasiado graves como para dejarlos fluir en el resto del mundo. Según seis formuladores de políticas involucrados en esas reuniones, se presentó en privado a funcionarios gubernamentales en Londres, París y Washington una presentación de PowerPoint que advierte que los modelos de inteligencia artificial de código abierto desatarían armas biológicas incontrolables accesibles a los terroristas. POLITICO no pudo determinar qué organización estaba detrás de estas terribles predicciones.

Microsoft y OpenAI se encuentran entre las empresas que favorecen restringir la tecnología a un pequeño número de empresas para que los reguladores puedan establecer vínculos con los innovadores de la IA.

"Un enfoque basado en licencias es el camino correcto a seguir", dijo a POLITICO Natasha Crampton, directora responsable de IA de Microsoft. "Permite una estrecha interacción entre el desarrollador de la tecnología y el regulador para evaluar realmente los riesgos".

Los críticos del dominio de Silicon Valley argumentan que las grandes tecnológicas tienen intereses creados en dejar fuera a la competencia. Según el defensor del código abierto Mark Surman, director ejecutivo de la Fundación Mozilla, las empresas tecnológicas más grandes del mundo quieren capturar la incipiente industria de la IA y aislar a sus rivales.

Durante el otoño, Surman recorrió las capitales occidentales para instar a altos funcionarios de EE. UU., la UE y el Reino Unido a no limitar quién podría desarrollar modelos de IA de próxima generación. A diferencia de otros gigantes de Silicon Valley, Meta de Zuckerberg se ha puesto del lado de personas como Surman que quieren mantener la tecnología abierta a todos, un punto que reforzó con su enfrentamiento con Harris sobre las armas biológicas en septiembre.

El enfoque abierto está ganando amigos en zonas poderosas de Washington, aunque los funcionarios estadounidenses siguen divididos. En Bruselas, los responsables políticos acordaron liberar a casi toda la IA de código abierto de la supervisión más estricta, siempre y cuando la tecnología no se utilice en prácticas ilegales, como el reconocimiento facial al por mayor. En el Reino Unido, sin embargo, los funcionarios se inclinan por restringir la IA más avanzada a un puñado de países.

"Si dejamos la IA en manos de unos pocos, no habrá suficientes ojos para examinar lo que hacen con ella", afirmó Surman.

El futuro esta aqui


Si 2023 fue el año en el que el lobby sobre IA irrumpió en la corriente política dominante, 2024 decidirá quién gana.

Las fechas clave para tomar decisiones se acercan rápidamente. Para el verano, algunas partes de la Ley europea de IA entrarán en vigor. La orden ejecutiva rival de IA de la Casa Blanca ya está cambiando cómo las agencias federales manejan la tecnología. Se esperan más reformas en Washington para finales de año.

Otros países como el Reino Unido, Japón y Canadá (así como China) están elaborando sus propios planes, que incluyen una mayor supervisión de la IA más avanzada y esfuerzos para lograr que otros países adopten sus reglas.

Lo que está claro, según las decenas de expertos en inteligencia artificial que hablaron con POLITICO, es que en 2024, es poco probable que desaparezca el deseo público de acción política. El impacto de la IA, especialmente en un año de elecciones masivas en Estados Unidos y la UE, Filipinas y la India, es todo menos seguro.

"Este asunto de la pérdida de control de la IA de repente se está tomando en serio", dijo Max Tegmark, presidente del Future of Life Institute, una organización sin fines de lucro que aboga por mayores controles sobre la IA. “La gente se está dando cuenta de que esto ya no es algo a largo plazo. Está sucediendo."

Mark Scott informó desde Londres, Bruselas, París, Berlín y Washington; Clothilde Goujard de Kioto, Japón, Vincent Manancourt de Londres, Gian Volpicelli de Bruselas, Mohar Chatterjee y Brendan Bordelon de Washington .

CORRECCIÓN: Una versión anterior de este artículo indicaba erróneamente qué empresas están a favor de restringir la tecnología a un pequeño número de empresas. Son Microsoft y OpenAI.

No hay comentarios:

Publicar un comentario