En el ojo de la tormenta de la IA


Por: Jack Grogan-Fenn
3 de enero de 2024

A medida que la influencia de la inteligencia artificial continúa extendiéndose y la regulación comienza a llegar, los inversores deben ser capaces de responsabilizar a las empresas sobre la gobernanza.

La prevalencia de la inteligencia artificial (IA) aumentó en 2023, una tendencia que seguramente continuará este año, pero el crecimiento de la tecnología se ve afectado por los riesgos derivados de la mala gobernanza.

El uso de la IA ya está muy extendido, como lo ilustra una encuesta de la consultora de gestión McKinsey, que encontró que el 79% de los encuestados ha tenido alguna exposición a la IA generativa y el 22% ya la usa regularmente en su trabajo.

El sistema de IA más conocido, ChatGPT, superó los 100 millones de usuarios únicos dos meses después de su lanzamiento en noviembre de 2022, y se estima que fue utilizado por 1.700 millones de personas en un año. Según una investigación de la empresa de TI Infosys, la IA añadirá 14 billones de dólares en valor bruto a las empresas para 2035, mientras que Goldman Sachs estimó que la IA generativa podría aumentar el PIB mundial en un 7% para 2033.

Los gobiernos ya están desplegando sistemas de IA en ámbitos como la vivienda, el empleo, el transporte, la educación, la salud, la accesibilidad y la justicia, y es probable que el uso de la tecnología aumente aún más en 2024.

En los sectores público y privado, podría ser transformador, mejorando la eficiencia, reduciendo los costos para las corporaciones y acelerando la automatización. Esto también significa pérdidas de empleo: un análisis de marzo de 2023 de Goldman Sachs proyectó que la IA podría reemplazar el equivalente a 300 millones de puestos de trabajo a tiempo completo.

Sin embargo, la IA plantea graves riesgos, como facilitar las violaciones de los derechos humanos, exacerbar los desequilibrios de poder de la sociedad, perpetuar la desigualdad racial y perturbar los procesos democráticos.

Estos riesgos son en gran medida evitables y pueden deberse a la mala gobernanza de la tecnología.

Estos riesgos suponen una amenaza para los inversores con inversiones en empresas de IA, que se prevé que alcancen los 200.000 millones de dólares a nivel mundial en 2025, así como para las empresas que utilizan la IA, en forma de riesgos regulatorios, financieros y de reputación.

«La gobernanza responsable de la IA es una enorme pieza que falta y una amenaza emergente», afirma David Rowlands, recientemente nombrado director global de IA de KPMG. «Se requiere un marco de gobernanza sólido para mitigar estos riesgos y cualquier nuevo requisito regulatorio».

«La velocidad de desarrollo junto con la relativa falta de madurez en el uso responsable de sistemas de IA potentes y, por lo tanto, la falta de procesos de supervisión y cumplimiento, es el principal riesgo de la IA desde una perspectiva de gobernanza», añade.

Es necesaria la acción del inversor

Tomas van der Heijden, director general de la empresa de software Briink, con sede en Berlín, afirma que ESG Investor 2024 marca una «coyuntura crítica» en la gobernanza responsable de la IA, en la que los inversores deben desempeñar un papel fundamental a la hora de dar forma a la trayectoria de la integración de la IA.

Hay una serie de iniciativas activas de los inversores para colaborar con las empresas en las que se invierte utilizando la IA para garantizar su desarrollo y gobernanza responsables. Esto incluye la Coalición de Impacto Colectivo para la Inclusión Digital de la World Benchmarking Alliance (WBA), una campaña de participación que tiene como objetivo impulsar a las empresas tecnológicas a promover políticas y prácticas éticas de IA.

La coalición se basa en el Punto de Referencia de Inclusión Digital de la alianza, que evalúa a 200 empresas sobre si están permitiendo un mayor acceso a las tecnologías digitales. En septiembre de 2023, se descubrió que solo 52 de estas empresas habían adoptado principios éticos básicos de IA.

El próximo mes, la alianza publicará una metodología actualizada para el índice de referencia que incluye una capa adicional centrada en la gobernanza. La AMB dice que los mecanismos de gobernanza y supervisión específicos de la IA siguen siendo «poco explicados y comprendidos».

La noruega Storebrand Asset Management participa en varias iniciativas de inversores relacionadas con la IA con empresas, incluida la petición a las empresas en las que se invierte que lleven a cabo evaluaciones continuas del impacto en los derechos humanos.

Jan Erik Saugestad, CEO de Storebrand, señala que las grandes empresas tecnológicas involucradas en software de IA tienden a tener «sistemas de ética empresarial débiles y una gobernanza deficiente del producto», lo que las hace «menos robustas en términos de cumplimiento normativo».

Añade que los inversores deben comprometerse con las empresas para garantizar un comportamiento corporativo responsable en torno a la IA con el fin de evitar riesgos financieros y de reputación y asegurarse de que estas empresas están preparadas para navegar por las nuevas regulaciones.

Guillaume Couneson, socio de TMT en Linklaters, dice que «no es lo suficientemente bueno» para los consejos de administración y la alta dirección saber que la IA se está utilizando en algún lugar de la empresa. Cada vez hay más expectativas de que tengan el pleno «control de la política y de la gobernanza en torno a ella».

Anita Dorett, directora de la Alianza de Inversores por los Derechos Humanos (IAHR, por sus siglas en inglés), también señala un aumento de los inversores que se comprometen con las grandes empresas tecnológicas en los riesgos relacionados con la IA, incluido un aumento de las nuevas propuestas de los accionistas que «exigen una mayor responsabilidad» en el desarrollo y el despliegue de la IA.

IAHR es una sólida plataforma de acción colectiva de 200 miembros para la inversión responsable. El pasado mes de febrero, 149 de sus inversores firmantes pidieron mejoras en la Ley de IA de la UE para «incentivar la conducta empresarial responsable» y garantizar el «uso fiable de la IA».

«El rápido desarrollo y despliegue de la tecnología, en particular los sistemas de IA sin procesos integrales de diligencia debida en materia de derechos humanos, han contribuido a impactos adversos en los derechos humanos y continuarán haciéndolo en 2024, un año súper electoral«, agrega Dorett.

Tomas van der Heijden, director ejecutivo de la firma de software Briink, con sede en Berlín, dice que los inversores deben hacer preguntas «críticas» a las empresas en las que invierten centrándose en el marco de gobernanza de la IA de las empresas, las consideraciones éticas en el desarrollo de la IA y las medidas para prevenir el sesgo y la discriminación.

Añade que los inversores deberían preguntarse cómo se están adaptando las empresas en las que se invierte a los cambios en la normativa, fomentando la innovación responsable e invirtiendo en la educación y la investigación continuas en materia de IA.

Aumento de la regulación

El año pasado se introdujeron numerosas regulaciones de IA y se prestó una mayor atención a la tecnología por parte de los responsables políticos, y en 2024 se implementarán más normas. Nikki Gwilliam-Beeharee, Investor Engagement Lead de WBA, señala que ha habido un «repunte en el interés desde una perspectiva regulatoria».

En diciembre, el Parlamento Europeo y el Consejo finalizaron la tan esperada Ley de IA de la UE. Este Reglamento tiene por objeto garantizar la protección de los derechos fundamentales, la democracia, el Estado de Derecho y la sostenibilidad medioambiental, así como establecer obligaciones para la IA en función de sus riesgos potenciales y su nivel de impacto.

La ley establece obligaciones claras en materia de IA, incluida una evaluación de impacto obligatoria sobre los derechos fundamentales, así como la armonización de las normas sobre los sistemas de IA en la UE.

Las normas se aplicarán dos años después de la ratificación de la ley, prevista para mediados de año. En virtud de su disposición de gobernanza de datos, las empresas se enfrentan a multas de hasta el 7% de los ingresos globales de hasta 7,5 millones de euros (8,2 millones de dólares).

«La necesidad urgente de regulaciones globales sólidas es crucial para incentivar y permitir el desarrollo responsable de la IA», dice Dorett. Si bien la UE ha liderado esto, los inversores están observando de cerca los desarrollos en los EE. UU. en materia de política tecnológica».

En octubre, Estados Unidos aprobó una orden ejecutiva sobre «IA segura, protegida y confiable» que obliga a las empresas a compartir los resultados de las pruebas de los sistemas de IA con el gobierno antes de su lanzamiento.

Sin embargo, las órdenes ejecutivas pueden ser canceladas o alteradas por futuros presidentes, lo que deja su futuro incierto. Es probable que el progreso de las regulaciones para la supervisión de la IA en 2024 sea lento debido a las inminentes elecciones presidenciales de noviembre.

No obstante, Julian Cunningham-Day, codirector global de Fintech de Linklaters, espera unos «12 a 18 meses ajetreados» caracterizados por «una participación significativa de los responsables de las grandes empresas tecnológicas en el diálogo legislativo».

El año pasado, las empresas de IA se enfrentaron a tres docenas de audiencias y nueve foros de información en el Senado, así como a más de 50 proyectos de ley de IA presentados por el Congreso.

Estados Unidos también está trabajando con la UE para desarrollar un Código de Conducta de IA voluntario antes de que entre en vigor la regulación formal. El objetivo del código es establecer normas para el uso de la tecnología de IA, cerrando la brecha hasta que entren en vigor leyes formales, incluida la Ley de IA de la UE.

El código se está creando en el marco del Consejo de Comercio y Tecnología de EE. UU. y la UE, que se estableció en 2021 para generar confianza y fomentar la cooperación en la gobernanza y el comercio tecnológicos. Se esperaba que estuviera en vigor a finales de 2023.

Seguridad y transparencia

En noviembre de 2023, el Reino Unido acogió la Cumbre de Seguridad de la IA de dos días de duración. En el evento, 28 países firmaron la Declaración de Bletchley, en la que se reconoce la «necesidad urgente» de comprender y gestionar colectivamente los posibles riesgos de la IA. Sin embargo, el conjunto inicial de signatarios estaba dominado por Occidente, Estados Unidos, China y otras naciones desarrolladas.

La declaración señaló la importancia de «una mayor transparencia por parte de los actores privados» que están desarrollando capacidades de IA de frontera.

En mayo de 2024, Corea del Sur acogerá una cumbre virtual sobre IA, seguida de una cumbre presencial en noviembre en Francia.

La Organización de las Naciones Unidas (ONU) también está trabajando actualmente en un Pacto Digital Mundial, que incluye garantizar que la transparencia, la equidad y la rendición de cuentas estén en el centro de la gobernanza de la IA y tener en cuenta la responsabilidad de los gobiernos de identificar y abordar los riesgos que podrían conllevar los sistemas de IA.

Está previsto que el pacto se lance en septiembre, en la Cumbre del Futuro de la ONU.

Gwilliam-Beeharee sugiere que el pacto podría ofrecer un equivalente del Acuerdo de París para lo digital, estableciendo expectativas para las empresas y aumentando el nivel general de madurez en torno a la IA.

Sin embargo, Saugestad, de Storebrand, advierte que la desigualdad de las normas reguladoras mundiales es una laguna clave a la que se enfrenta la gobernanza responsable de la IA, y Dorett, de IAHR, advirtió anteriormente que la regulación ESG de los inversores nunca podrá seguir el ritmo de los avances tecnológicos.

Van der Heijden, de Briink, está de acuerdo en que, a pesar de los recientes avances normativos, persisten lagunas clave en la gobernanza responsable de la IA. Es probable que estas brechas requieran la participación de la industria, incluso de los inversores, para ayudar a dar forma a las mejores prácticas.

Los inversores deberían «abogar por directrices más claras» sobre el desarrollo ético de la IA, dice, así como presionar por una mayor transparencia, un seguimiento continuo de las aplicaciones de IA, mecanismos para abordar las preocupaciones de la sociedad y «contribuir a la resolución de las brechas existentes».

ARTÍCULOS RELACIONADOS: IA, COMPROMISO, RIESGOS ESG, DESTACADO2, GOBERNANZA, DERECHOS HUMANOS, INICIATIVA INVERSORA, POLÍTICA, REGULACIÓN, REGULADORES, TECNOLOGÍA


Ley de Inteligencia Artificial: acuerdo sobre normas exhaustivas para una IA fiable

Comunicados de prensa

09-12-2023 – 00:04 

  • Salvaguardias acordadas sobre la inteligencia artificial de propósito general
  • Limitación del uso de sistemas de identificación biométrica por parte de las fuerzas del orden
  • Prohibiciones de la puntuación social y la IA utilizadas para manipular o explotar las vulnerabilidades de los usuarios
  • Derecho de los consumidores a presentar quejas y recibir explicaciones significativas
  • Multas que van desde los 35 millones de euros o el 7% de la facturación global hasta los 7,5 millones o el 1,5% de la facturación

Los eurodiputados han llegado a un acuerdo político con el Consejo sobre un proyecto de ley para garantizar que la IA en Europa sea segura, respete los derechos fundamentales y la democracia, y que las empresas puedan prosperar y expandirse.

El viernes, los negociadores del Parlamento y el Consejo alcanzaron un acuerdo provisional sobre la Ley de Inteligencia Artificial. El presente Reglamento tiene por objeto garantizar que los derechos fundamentales, la democracia, el Estado de Derecho y la sostenibilidad medioambiental estén protegidos de la IA de alto riesgo, impulsando al mismo tiempo la innovación y convirtiendo a Europa en líder en este ámbito. Las normas establecen obligaciones para la IA en función de sus riesgos potenciales y su nivel de impacto.

Aplicaciones prohibidas

Reconociendo la amenaza potencial para los derechos de los ciudadanos y la democracia que plantean determinadas aplicaciones de la IA, los colegisladores acordaron prohibir:

  • sistemas de categorización biométrica que utilizan características sensibles (por ejemplo, creencias políticas, religiosas, filosóficas, orientación sexual, raza);
  • extracción no selectiva de imágenes faciales de Internet o de imágenes de circuito cerrado de televisión para crear bases de datos de reconocimiento facial;
  • reconocimiento de emociones en el lugar de trabajo y en las instituciones educativas;
  • puntuación social basada en el comportamiento social o las características personales;
  • sistemas de IA que manipulan el comportamiento humano para eludir su libre albedrío;
  • La IA se utiliza para explotar las vulnerabilidades de las personas (debido a su edad, discapacidad, situación social o económica).

Exenciones de la aplicación de la ley

Los negociadores acordaron una serie de salvaguardias y excepciones limitadas para el uso de sistemas de identificación biométrica (RBI) en espacios de acceso público con fines de aplicación de la ley, sujetos a autorización judicial previa y para listas de delitos estrictamente definidas. El RBI «post-remoto» se utilizaría estrictamente en el registro selectivo de una persona condenada o sospechosa de haber cometido un delito grave.

El RBI «en tiempo real» cumpliría condiciones estrictas y su uso estaría limitado en el tiempo y el lugar, a los efectos de:

  • búsquedas selectivas de víctimas (secuestro, trata, explotación sexual),
  • la prevención de una amenaza terrorista concreta y presente, o
  • la localización o identificación de una persona sospechosa de haber cometido uno de los delitos específicos mencionados en el Reglamento (por ejemplo, terrorismo, trata de seres humanos, explotación sexual, asesinato, secuestro, violación, robo a mano armada, participación en una organización delictiva, delitos contra el medio ambiente).

Obligaciones de los sistemas de alto riesgo

En el caso de los sistemas de IA clasificados como de alto riesgo (debido a su importante daño potencial para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de Derecho), se acordaron obligaciones claras. Los eurodiputados lograron incluir con éxito una evaluación de impacto obligatoria de los derechos fundamentales, entre otros requisitos, aplicable también a los sectores de los seguros y la banca. Los sistemas de IA utilizados para influir en el resultado de las elecciones y el comportamiento de los votantes también se clasifican como de alto riesgo. Los ciudadanos tendrán derecho a presentar quejas sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten a sus derechos.

Barandillas para sistemas generales de inteligencia artificial

Para tener en cuenta la amplia gama de tareas que pueden realizar los sistemas de IA y la rápida expansión de sus capacidades, se acordó que los sistemas de IA de uso general, y los modelos de IAP en los que se basan, tendrán que cumplir los requisitos de transparencia propuestos inicialmente por el Parlamento. Entre ellas se encuentran la elaboración de documentación técnica, el cumplimiento de la legislación de la UE en materia de derechos de autor y la difusión de resúmenes detallados sobre los contenidos utilizados para la formación.

En el caso de los modelos de IAGP de alto impacto con riesgo sistémico, los negociadores del Parlamento lograron obtener obligaciones más estrictas. Si estos modelos cumplen determinados criterios, tendrán que llevar a cabo evaluaciones de modelos, evaluar y mitigar los riesgos sistémicos, realizar ensayos contradictorios, informar a la Comisión sobre incidentes graves, garantizar la ciberseguridad e informar sobre su eficiencia energética. Los eurodiputados también insistieron en que, hasta que se publiquen las normas armonizadas de la UE, las GPAI con riesgo sistémico pueden basarse en códigos de prácticas para cumplir con el reglamento.

Medidas de apoyo a la innovación y a las pymes

Los eurodiputados querían garantizar que las empresas, especialmente las pymes, puedan desarrollar soluciones de IA sin la presión indebida de los gigantes de la industria que controlan la cadena de valor. Con este fin, el acuerdo promueve los llamados sandboxes regulatorios y las pruebas en el mundo real, establecidos por las autoridades nacionales para desarrollar y entrenar IA innovadora antes de su comercialización.

Sanciones y entrada en vigor

El incumplimiento de las normas puede dar lugar a multas que van desde los 35 millones de euros o el 7 % de la facturación global hasta los 7,5 millones o el 1,5 % de la facturación, dependiendo de la infracción y el tamaño de la empresa.

Presupuestos

Tras el acuerdo, el co-ponente Brando Benifei (S&D, Italia) afirmó: «Fue largo e intenso, pero el esfuerzo valió la pena. Gracias a la resiliencia del Parlamento Europeo, la primera legislación horizontal del mundo sobre inteligencia artificial mantendrá la promesa europea, garantizando que los derechos y las libertades estén en el centro del desarrollo de esta tecnología innovadora. La correcta aplicación será clave: el Parlamento seguirá vigilando de cerca, para garantizar el apoyo a las nuevas ideas de negocio con sandboxes y normas eficaces para los modelos más potentes».

El co-ponente Dragos Tudorache (Renew, Rumanía) ha declarado: «La UE es la primera del mundo en establecer una normativa sólida sobre la IA, orientando su desarrollo y evolución en una dirección centrada en el ser humano. La Ley de IA establece normas para los modelos de IA grandes y potentes, garantizando que no presenten riesgos sistémicos para la Unión, y ofrece sólidas salvaguardias para nuestros ciudadanos y nuestras democracias frente a cualquier abuso de la tecnología por parte de las autoridades públicas. Protege a nuestras pymes, refuerza nuestra capacidad para innovar y liderar en el ámbito de la IA y protege a los sectores vulnerables de nuestra economía. La Unión Europea ha hecho contribuciones impresionantes al mundo; la Ley de IA es otra que tendrá un impacto significativo en nuestro futuro digital».

Rueda de prensa

Los eurodiputados Brando Benifei (S&D, Italia) y Dragos Tudorache (Renew, Rumanía), la secretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas, y el comisario Thierry Breton ofrecieron una rueda de prensa conjunta tras las negociaciones. La declaración del Sr. Benifei está disponible aquí y la del Sr. Tudorache aquí. Más extractos están disponibles aquí

Pasos siguientes

El texto acordado tendrá que ser adoptado formalmente por el Parlamento y el Consejo para convertirse en legislación de la UE. Las comisiones de Mercado Interior y de Libertades Civiles del Parlamento votarán sobre el acuerdo en una próxima reunión.

Contactos:


Publicado originalmente: https://www.esginvestor.net/in-the-eye-of-the-ai-storm/

Deja una respuesta