Con los nuevos sistemas y aplicaciones de IA generativa que se lanzan, anuncian o demuestran a diario, no sorprende que esta nueva generación de herramientas también esté llamando la atención de los reguladores y legisladores de todo el mundo.
Chat GPT y sus relaciones (competidoras) están brindando una visión cada vez más clara de lo que se avecina. La combinación de algoritmos de aprendizaje automático, un poder de cómputo previamente inimaginable y una «base de datos» de aprendizaje que comprende todo Internet significa que todo tipo de esfuerzos que antes hubieran sido imposibles, están al alcance. Las empresas, las nuevas empresas, los gobiernos y las universidades de todo el mundo se apresuran a explorar lo que es posible hoy y lo que podría ser posible en el futuro.
Si bien las herramientas de hoy pueden sorprendernos con sus capacidades, también pueden impactar con su capacidad para disimular o, técnicamente, para “alucinar”. Más claramente: ¡mienten, y mienten con convicción!
Hace dos semanas, unas 25 000 personas {Ed, bueno, y probablemente algunos robots} , incluido Elon Musk, firmaron una carta abierta en la que pedían una moratoria en el trabajo de los laboratorios de IA para entrenar herramientas más potentes que GPT-4 durante al menos 6 meses.
Esta semana, una agencia clave de los EE. UU. está buscando comentarios sobre si las herramientas de IA deben auditarse o licenciarse y, de ser así, cómo. La UE y el Reino Unido se han centrado en la ética en la IA durante algún tiempo.