A medida que la inteligencia artificial avanza a gran velocidad, los inversores están colaborando para comprender y abordar los riesgos en rápida evolución para la privacidad, la seguridad laboral, la democracia y la sociedad.
El rápido progreso y la sofisticación de la inteligencia artificial (IA) están dominando los titulares, con la IA generativa, una nueva tecnología capaz de crear contenido indistinguible del trabajo humano, despertando miedo y asombro en igual medida.
En marzo, los magnates de la tecnología Elon Musk, Steve Wozniak y más de 1.200 fundadores y científicos de investigación firmaron una carta abierta pidiendo una pausa de seis meses en los experimentos generativos de IA para comprender mejor los riesgos, beneficios e impactos de la tecnología en el mundo.
Goldman Sachs dijo el mes pasado que la IA podría reemplazar el equivalente a 300 millones de empleos a tiempo completo e Italia prohibió la popular herramienta generativa de IA ChatGPT por preocupaciones de privacidad. Sir Jeremy Fleming, director de Inteligencia del Reino Unido GCHQ, advirtió la semana pasada que la desinformación es una amenaza principal del avance de la IA.
Una cuestión clave es que la IA es omnipresente y conceptualmente resbaladiza, lo que hace que sea notoriamente difícil de regular, dice Matt O’Shaughnessy, miembro visitante del Programa de Tecnología y Asuntos Internacionales de la Fundación Carnegie para la Paz Internacional.
Europa y China están tratando de tomar la delantera en IA, dice, con este último implementando regulaciones dirigidas a las capacidades y algoritmos de IA y la UE compitiendo para aprobar su amplio proyecto de Ley de Inteligencia Artificial (Ley de IA de la UE).
Consideraciones relativas a los derechos humanos y civiles
Pero los inversores dicen que la Ley de IA de la UE debe ir más allá para actuar sobre los riesgos de derechos humanos y civiles que surgen a través del uso indebido de la IA y han firmado una carta conjunta exigiendo más acciones. Piden disposiciones adicionales en la Ley, como los requisitos de evaluación del impacto en los derechos humanos para desarrollar e implementar sistemas de IA y los requisitos de bases de datos visibles públicamente para que los proveedores de IA estén disponibles para los usuarios.
Aviva Investors es uno de los 149 inversores signatarios de la carta. Louise Piffaut, directora de ESG Equity Integration en Aviva Investors, explica a ESG Investor que, si bien el objetivo principal de la IA es servir a un propósito positivo, su creciente importancia dentro de la sociedad también ha dado lugar a importantes impactos perjudiciales en la sociedad.
«Como inversor, hemos estado comprometidos con los derechos humanos durante varios años en todos los sectores y regiones. La IA eventualmente afectará a todos los sectores en los que invertimos. En última instancia, queremos tomar decisiones de inversión que respeten los derechos humanos», dice.
Piffaut dice que como la IA actualmente no está regulada en gran medida, el espectro completo de riesgos para los derechos humanos que ocurren a través de la cadena de valor de la IA, desde el desarrollo de productos hasta el uso de un sistema de IA, sigue siendo subestimado.
«Las salvaguardas son escasas y, por lo tanto, las empresas que construyen estos sistemas rara vez rinden cuentas sobre los impactos de la tecnología en las personas», dice. «La regulación basada en el riesgo, como se propone en la Ley de IA de la UE, proporcionará reglas claras para garantizar que se prohíban los peores impactos. El Reglamento propone diferentes normas y niveles de transparencia que incentivarán a las empresas a gestionar mejor los riesgos clave».
Compromiso con la IA
En ausencia de una regulación sólida sobre IA hasta el momento, los inversores se están comprometiendo con empresas en áreas de IA que, en su opinión, plantean riesgos significativos para los derechos humanos. En 2021, el inversor Candriam, con sede en Bruselas, comenzó una campaña de compromiso sobre los riesgos para los derechos humanos de la tecnología de reconocimiento facial.
Benjamin Chekroun, analista de administración, voto por poder y participación en Candriam, le dice a ESG Investor que comenzó a notar el riesgo asociado con la tecnología de reconocimiento facial alrededor de la década de 2020 cuando los grupos de la sociedad civil comenzaron campañas para prohibir su uso por parte de las fuerzas policiales y las empresas introdujeron moratorias en la venta de productos y sistemas a las fuerzas del orden, especialmente en los EE. siguiendo el movimiento Black Lives Matter.
«Algunas ciudades y países también introducen prohibiciones», señala. «A finales de 2021, el Parlamento Europeo pidió la prohibición del uso policial de la tecnología de reconocimiento facial en lugares públicos y de la vigilancia predictiva». Chekroun dice que hay mil millones de cámaras en el mundo que se pueden vincular al reconocimiento facial, en un área que está mal regulada pero donde la tecnología avanza rápidamente.
«Es realmente tentador de usar porque es barato», agrega. «La tecnología está entrando en línea tan rápidamente y siempre está muy por delante de la regulación. Esa brecha se va a ampliar, la tecnología va a ser exponencial, donde la regulación va a ser relativamente lineal, y eso es un riesgo para los inversores».
Candriam lidera una campaña de participación, junto con 20 inversores, dirigida a 30 empresas, para mejorar la transparencia en su uso de la IA y cómo están lidiando con los problemas éticos y sociales relacionados con la tecnología.
La campaña de participación logró hablar con 15 compañías, incluidas Microsoft y Motorola.
Candriam ha entrado en la segunda etapa de compromiso en la que aboga por que las empresas tengan un director de junta que tenga experiencia o responsabilidad en ética e inteligencia artificial y un departamento que informe a la junta sobre el tema.
Amenaza existencial
Al igual que Candriam, Fidelity International es otro inversor preocupado por el rápido progreso de la IA y la ausencia de regulación.
«Desde el lanzamiento público y el conocimiento de ChatGPT, la IA obviamente está evolucionando mucho más rápidamente de lo que muchos pueden haber anticipado, y ciertamente mucho antes de cualquier supervisión o restricción común en términos de gobernanza o regulación», dice Christine Brueschke, analista de inversión sostenible de Fidelity International.
«Los desarrollos recientes han demostrado que hemos pasado rápidamente de las preocupaciones sobre los riesgos sociales, como las preocupaciones de privacidad, el sesgo algorítmico y la seguridad laboral, a las preocupaciones existenciales reales por el futuro de la democracia e incluso de la humanidad».
Fidelity International está coliderando un flujo de trabajo de inversores para llevar a cabo un compromiso de colaboración con empresas para promover la IA ética bajo el paraguas de la Coalición de Impacto Colectivo Digital de la Alianza Mundial de Benchmarking (WBA). Brueschke dice que está informado por el Punto de Referencia de Inclusión Digital de la WBA, que entre otras cosas mide los compromisos públicos de las empresas con la IA ética.
El flujo de trabajo envió una carta el año pasado a 130 empresas de tecnología digital, pidiéndoles que promuevan una economía digital más inclusiva y confiable y una sociedad sostenible.
«La respuesta a nuestro compromiso colaborativo por parte de las empresas ha sido algo mixta, pero en general positiva y alentadora», dice Brueschke. «Muchas empresas están considerando absolutamente los problemas éticos de la IA, pero hay un largo camino por recorrer».
Jamie Jenkins, director de Global ESG Equities en Columbia Threadneedle, dice que la IA ofrece enormes ventajas potenciales para la vida moderna, como el poder computacional y la tecnología autónoma, pero también existen peligros con la aplicación de la IA que pueden requerir un proceso de supervisión que sea claro, inclusivo y transparente.
«La geopolítica actual del siglo 21 hace que parte de esa estandarización global sea un poco más complicada. Pero creo que sería deseable la creación de una guía específica y aplicable a nivel mundial para garantizar que las actividades de IA busquen maximizar el bien público y minimizar el uso indebido», dice Jenkins.
«No es un gran salto para la hipótesis de que podría haber un mal uso de la IA en términos de proliferación de información errónea».
Piffaut de Aviva Investors está de acuerdo y dice: «Nuestra sociedad y su funcionamiento podrían estar en peligro. Estamos de acuerdo con los recientes llamamientos para obtener más orientación sobre la mitigación y reducción de los riesgos, según numerosas cartas abiertas en los últimos meses».
Según Piffaut, otro riesgo importante que plantea la IA es la seguridad laboral.
«Uno de los grandes temas ESG en los que hemos estado pensando más es en torno a lo que significa una transición justa en el contexto de una transición a una economía baja en carbono. Del mismo modo, los inversores deberían comenzar a pensar en la transición justa que tendrá que ocurrir en paralelo como resultado de los avances tecnológicos y de IA».
En última instancia, con la tecnología que avanza tan rápidamente, superando la regulación, Chekroun de Candriam dice que la gobernanza será crítica. «Necesitamos que las empresas adopten la ética e incluyan la IA en sus principios de derechos humanos.
«Una cosa que notamos cuando hablamos con compañías en el campo afectadas por el reconocimiento facial fue que aquellas que estaban más cerca de escribir el algoritmo fueron las que se dieron cuenta de que ‘tenemos sesgos aquí y es realmente importante que no arruinemos esto’ y estaban más dispuestos a hablar sobre los principios de publicación».