Mantenerse al día con la IA


Por: Alice Tchernookova

16 de octubre de 2024

Con la tecnología avanzando rápidamente y los responsables políticos luchando por mantener el ritmo, los inversores pueden ayudar a regular el espacio.

No es ningún secreto que el ritmo de la elaboración de normas suele ser lento en comparación con la velocidad a la que evolucionan los mercados. Pero esto es quizás más cierto que nunca en el caso de la IA.

Por ello, los expertos han señalado el papel clave que pueden desempeñar los inversores para hacer que las empresas rindan cuentas, garantizando que el progreso tecnológico no se realice a costa de los derechos y protecciones fundamentales.

«La pieza regulatoria es crítica, y en un mundo ideal, tendríamos una legislación buena y robusta», sugiere Jonas Kron, vicepresidente Senior y director de Defensa de Trillium Asset Management. «La Ley de Inteligencia Artificial de la UE podría ser eso, pero no podemos esperar a que se regule. Los inversores, en particular, deben asegurarse de hacer su parte para presionar a las empresas sobre la divulgación de información ESG y las mejores prácticas».

Kron describe la participación de los inversores en el espacio como algo que se encuentra en sus inicios: una «parte exploratoria que florezcan muchas flores», dice. Informa que está al tanto de tres iniciativas de inversores, ninguna de las cuales es pública todavía.

«Es emocionante y bueno en este momento ver toda la actividad, no es muy diferente a otras etapas de interés de los inversores sobre el cambio climático, la biodiversidad o el agua», dice Kron. «Hay una proliferación de marcos, regímenes y directrices. Es probable que veamos mucho de eso durante el próximo año o 18 meses. Algunos de ellos se pondrán de moda y se consolidarán, y otros desaparecerán».

Una vez más, el problema es el ritmo al que se está moviendo la industria, lo que también crea desafíos para los inversores.

«Los inversores que quieren armar estos marcos intentan ponerse al día, por lo que hay mucho interés a nivel de gobernanza, ya que se pueden cubrir muchas bases con una buena gobernanza», argumenta Kron. «Hay que profundizar en los detalles de los impactos sociales y energéticos particulares, pero la gobernanza es realmente importante en este momento, a medida que la industria despega».

En 2022, Trillium presentó una propuesta de accionistas al gigante tecnológico Alphabet, solicitando que la empresa fuera «más allá de sus divulgaciones existentes y proporcionara más información cuantitativa y cualitativa sobre sus sistemas algorítmicos«. La propuesta recibió el 19% de los votos a favor.

Enfoque proactivo

Los pensamientos de Kron se hicieron eco en la conferencia PRI in Person de este año en Toronto, durante la cual un panel de expertos discutió cómo invertir de manera responsable en IA.

Señalando la lucha incesante de los reguladores frente a la velocidad y complejidad de la tecnología, el moderador Walter Viguiliouk, director general de Inversión Sostenible y Mercados Privados de Manulife Investment Management, cuestionó al panel sobre el papel de la participación de los inversores, incluso con los responsables políticos.

«[Hay] espacio para el compromiso de los inversores con las empresas de cartera para tratar de establecer un marco ético y las directrices que regirán la implementación de la IA en el lugar de trabajo y en las operaciones comerciales de las empresas, abordando algunas de las preocupaciones a través del proceso de pedidos privados, en lugar de esperar a la regulación», dijo Brandon Rees, subdirector de Corporaciones y Mercados de Capital de la Federación Estadounidense del Trabajo y el Congreso de Organizaciones Industriales. «Como hemos visto con el cambio climático, no podemos esperar a que el gobierno resuelva el problema».

Los inversores pueden maximizar el valor de las empresas de su cartera asegurándose de que están adoptando la IA de una manera reflexiva que incluya el compromiso de los empleados y el empoderamiento de los trabajadores, argumentó Rees.

El compromiso proactivo con los desarrollos regulatorios también puede ofrecer una ventaja estratégica, dice Ty Francis, director de asesoría de cumplimiento de la firma de asesoría de cumplimiento LRN, a ESG Investor, ya que mantenerse a la vanguardia de los cambios regulatorios permite anticipar mejor las tendencias del mercado, generar confianza con las partes interesadas y promover la transparencia. «A medida que la IA continúa remodelando las industrias, los inversores ESG deberán monitorear de cerca las actualizaciones regulatorias para mitigar los riesgos y fomentar rendimientos sostenibles», agrega.

Al designar la «IA insegura» como el último tipo de riesgo ESG para las carteras de inversión, el proveedor de índices ISS STOXX recomendó recientemente a los inversores que vigilen dónde pueden producirse déficits.

«La nueva regulación y los esfuerzos de la industria apuntan a fuentes de riesgo de cartera, particularmente de tipo social, tanto para los desarrolladores como para los implementadores de sistemas de IA», dijo ISS STOXX en un comunicado. «A medida que la tecnología avanza rápidamente, los gobiernos y las empresas están intensificando sus esfuerzos para garantizar que no sea propensa al uso indebido y al abuso. Las nuevas normas, como la Ley de IA de la UE, y la divulgación de información de las empresas, pueden proporcionar orientación e información clave para mitigar los riesgos».

De vuelta a PRI in Person, Jessica Cairns, directora de ESG y Sostenibilidad de Alphinity -una gestora activa de fondos de renta variable australianos y mundiales-, argumentó que, si bien la IA no es un «riesgo en sí misma», tampoco puede verse solo como una oportunidad, instando a los inversores a abordar el potencial de la tecnología para exacerbar los factores de riesgo establecidos.

«Estamos de acuerdo en que [la IA] es una tecnología transformadora que va a cambiar la forma en que todos trabajamos», dijo. «Pero la interfaz con los factores ESG existentes, como la privacidad, la ciberseguridad, la diversidad y la inclusión, los derechos humanos, las emisiones, es realmente la forma en que pensamos en la mejor manera de comprender ese riesgo y oportunidad, y en la mejor manera de abordar y analizar el riesgo desde la perspectiva de la empresa».

En un documento reciente escrito en coautoría con Open MIC, una iniciativa respaldada por inversores que tiene como objetivo fomentar una mayor responsabilidad corporativa sobre las tecnologías digitales, el Centro Interreligioso sobre Responsabilidad Corporativa (ICCR) trazó paralelismos similares con los riesgos existentes para los derechos humanos.

«Realmente imita las áreas de riesgo a largo plazo para los inversores y las empresas cuando se trata de problemas de la cadena de suministro», dice Nadira Narine, directora sénior del Programa de Avance de la Justicia para los Trabajadores de ICCR. «Uno de los principales riesgos derivados de la tecnología es la discriminación, ya que hay un sesgo inherente a los sistemas basados en IA. Algunos proveedores dicen que solo están proporcionando la herramienta y sus clientes eligen cómo usarla, pero en realidad es responsabilidad de ambas partes».

Corresponde a los inversores, tanto como a las empresas, garantizar que los abusos de los derechos humanos se prevengan y mitiguen en todas las cadenas de suministro, insiste Narine.

Dado que los riesgos relacionados con la IA son inherentemente globales por naturaleza, la esperanza y la anticipación es que habrá un entorno regulatorio adecuadamente sólido dondequiera que se implemente la tecnología, dice Michael Connor, director ejecutivo de Open MIC, a ESG Investor.

«Muchas empresas tienen actividades globales, por lo que debemos asegurarnos de que, si están aplicando un estándar más alto en Europa debido a las regulaciones de la UE, este debería ser el caso dondequiera que operen para fomentar una mayor responsabilidad corporativa en el despliegue y uso de tecnologías digitales», dice.

Panorama global

Sin embargo, en la mayoría de las jurisdicciones, la regulación de la IA se encuentra en una etapa incipiente, con esfuerzos y etapas de desarrollo bastante desiguales en todo el mundo.

«La UE es, con mucho, la más avanzada, y Singapur y el sudeste asiático son lo contrario: por ahora, adopta un enfoque ligero, lo cual es bastante sensato ya que las cargas que la velocidad del desarrollo y las tecnologías de IA impone a los legisladores para mantenerse al día con ellas son onerosas y costosas», dice Frank Meehan, presidente de Improvability AI. que ofrece servicios de automatización de informes de sostenibilidad.

En vigor desde el 1 de agosto, la Ley de Inteligencia Artificial de la UE es ampliamente percibida como la forma de regulación más avanzada, aunque prescriptiva, en el espacio, lo que genera críticas, especialmente de sus pares estadounidenses.

«Si bien las regulaciones de la UE muestran una comprensión admirable de las tecnologías y sus implicaciones, particularmente en áreas como la defensa, también son prematuras y podrían sofocar la innovación», argumenta Meehan.

Sus pensamientos también se hicieron eco en PRI in Person, con Cameron Schuler, director de comercialización del Instituto Vector para la Inteligencia Artificial, argumentando que el Reglamento General de Protección de Datos de la UE ya iba demasiado lejos. «La pieza importante para esto es la interoperabilidad, asegurándose de que se está enfocando en las cosas que las organizaciones pueden hacer en todo el mundo», agregó.

En Asia, varios países, entre ellos Vietnam, Tailandia, Taiwán, Corea del Sur, Singapur, Malasia, Japón, Indonesia e India, han publicado proyectos de ley o tienen la intención de hacerlo. Se espera que Hong Kong publique su primera declaración de política sobre el uso de la IA a finales de mes.

China es el único país asiático que ha introducido formalmente legislación sobre IA, con un primer conjunto de leyes publicado en 2022-23, y otros proyectos de reglamentos sobre IA generativa publicados a principios de este año.

«En Asia no se han aprobado muchas leyes reales, mucho de lo que estamos viendo todavía se encuentra en la etapa de orientación», dice Marian Waldmann Agarwal, socia del bufete de abogados Morrison Foerster. «Lo que estamos viendo en todos los ámbitos son preocupaciones similares en torno a la promoción de los principios subyacentes a la tecnología, que básicamente se remontan al uso responsable, la transparencia y la inclusión».

En Australia, el Departamento de Industria, Ciencia y Recursos cerró recientemente una consulta sobre las barreras de protección obligatorias para la IA, subrayando que las consultas anteriores han demostrado que el sistema regulatorio actual del país no es adecuado para responder a los riesgos que plantea la tecnología.

«Es un verdadero desafío para nosotros en el panorama australiano, ya que aún no tenemos ninguna regulación en torno a esto», dijo Cairns de Alphinity en PRI in Person. «[Para las empresas], hay mucha preocupación en torno a moverse demasiado rápido cuando no se ha establecido una regulación. Si el entorno regulatorio va a ser muy estricto como lo que estamos viendo en la UE, es posible que tengan que rehacer las cosas más adelante. Pero también existe el riesgo de ser demasiado lento y quedarse atrás».

En Estados Unidos, la ausencia de una legislación federal general significa que los estados individuales han tomado la iniciativa.

«El entorno regulatorio en Estados Unidos es relativamente débil e incipiente», dice Narine. «Hay un campo creciente a nivel estatal con algunos proyectos de ley que han estado circulando, y se están llevando a cabo más conversaciones a nivel federal sobre lo que se necesita».

Pero como siempre ocurre con la regulación estadounidense, esos proyectos de ley se enfrentan a un fuerte cabildeo corporativo, explica Narine.

«Es útil pensar en la legislación actual y futura de EE. UU. a través de una lente de seguridad nacional: en muchos sentidos, nuestro gobierno considera que la IA presenta simultáneamente una carrera hacia la luna, una carrera armamentista y una guerra de talentos», sugiere Joshua Klayman, Jefe de Blockchain y Activos Digitales de EE. UU. en Linklaters. A nivel federal, la amplia orden ejecutiva de IA de Biden debe verse como una estrella polar que ordena a varias agencias que actúen, en lugar de establecer regulaciones vinculantes».

Los reguladores financieros, como la Comisión de Bolsa y Valores de EE. UU., han comenzado a abordar los riesgos relacionados con la IA, incluso a través de acciones de cumplimiento, mientras que el Departamento de Comercio está preparado para desempeñar un papel clave en el establecimiento de estándares nacionales, en línea con la orden ejecutiva.

Diecinueve estados han aprobado leyes para abordar los deepfakes, mientras que algunos, como Nueva York, han introducido leyes relativas a los daños en línea y limitan el uso de algoritmos adictivos por parte de las plataformas de redes sociales. Pero el estado más próximo ha sido sin duda California, que el mes pasado convirtió en ley 18 de los 38 proyectos de ley de IA.

Sin embargo, el proyecto de ley más controvertido, el SB 1047 sobre la Ley de Innovación Segura para Modelos de Inteligencia Artificial de Frontera, fue vetado por el gobernador Gavin Newsom. Se dice que la propuesta representa un cambio importante en la forma en que los estados individuales han tratado de regular la IA hasta la fecha, incluso al exigir a los desarrolladores que implementen un «interruptor de apagado» y estén sujetos a auditorías de cumplimiento de terceros.

«El gobernador Newsom consideró que el proyecto de ley no se adaptaba bien a la forma en que se está moviendo el mercado, centrándose en la necesidad de que la regulación sea ágil para mantenerse al día con los avances tecnológicos», dice Kron de Trillium. «Esto realmente aborda el desafío fundamental que enfrentan todos los reguladores de políticas públicas en este momento, que es que la industria se está moviendo increíblemente rápido y la democracia se mueve mucho más lentamente. Ese delta se siente enormemente difícil y frustrante para cualquiera que crea que las políticas públicas son algo bueno en este campo para tener éxito».

Tener que adaptarse a una variedad de reglas y regulaciones a nivel mundial crea «muchos problemas» para los desarrolladores de IA, las empresas y los inversores por igual, argumenta Meehan. El tratado internacional tripartito jurídicamente vinculante sobre la IA firmado por Estados Unidos, la Unión Europea y el Reino Unido durante una conferencia del Consejo de Europa el mes pasado tenía como objetivo en parte aliviar esos dolores.

«Estos son los primeros días en términos de identificar el enfoque correcto, con algunos conflictos incluso entre los expertos», dice Connor de Open MIC. «Antes de redactar una gran cantidad de regulaciones o legislación, debemos asegurarnos de que estamos abordando los problemas correctos y comprenderlos correctamente, y se debe investigar mucho más para eso».

Artículos relacionados: IA, Asia, Australia, CHINA, GOBIERNO CORPORATIVO, CIBERSEGURIDAD, COMPROMISO, Ley de IA de la UE, Destacado, GOBERNANZA, DERECHOS HUMANOS, POLÍTICA, REGULACIÓN, TECNOLOGÍA


Publicado originalmente: https://www.esginvestor.net/keeping-up-with-ai/

Deja una respuesta