Teniendo en cuenta el potencial de daño generalizado, a medida que BigTech despliega sistemas de inteligencia artificial (IA), los responsables políticos se enfrentan a la desalentadora tarea de determinar cómo regular eficazmente la tecnología emergente. La IA puede ser una herramienta eficaz para el progreso cuando su diseño responsable está regulado en aras del interés público.
En conversaciones con inversores y empresarios, las preguntas sobre cómo la regulación de la IA podría obstaculizar la innovación y el crecimiento económico están a la vanguardia. Existe la narrativa de que la aplicación de la regulación sofocará la innovación; pero existe una relación matizada entre la regulación y la innovación de la IA. La regulación a veces puede sofocar la innovación, pero su necesidad permanece. El uso de enfoques como la estrategia de sandbox del Reino Unido puede lograr un equilibrio. Se podría argumentar que la regulación en realidad ayuda a la innovación y dirige el desarrollo de productos para servir a la sociedad. Sin embargo, el factor crucial es la aplicación oportuna de dicha regulación.
La integración de enfoques de diseño responsable y ética en el desarrollo de productos de IA evitará la suspensión de proyectos debido a la incertidumbre legislativa y retrasará la realización de valor de posibles oportunidades comerciales. La regulación impondrá estándares éticos a la IA, influyendo en las elecciones de los diseñadores y proporcionando diferentes direcciones para la innovación. En última instancia, una buena regulación permite un entorno de incentivos para la innovación y el diseño que conduce a la creación de productos de IA que sirven a la sociedad, en lugar de explotarla.