Romper el ciclo


BigTech a menudo desvía el escrutinio atribuyendo cuestiones éticas a factores externos, como las acciones de proveedores y reguladores, mientras descuida sus propios modelos comerciales insostenibles. Mientras abogan por las regulaciones de IA, estos gigantes tecnológicos pueden estar sirviendo a sus propios intereses creando barreras de entrada para competidores más pequeños, reduciendo la competencia, protegiendo su posición en el mercado y aumentando los precios de otros productos. Las empresas de tecnología también imponen su falta de sostenibilidad a otros al pedir a sus proveedores que adopten fuentes de energía renovables sin abordar los problemas centrales de su propio impacto ambiental.

Las empresas de tecnología deben asumir la responsabilidad de sus prácticas y reevaluar los modelos de negocio para alejarse de la obsolescencia programada y adoptar una economía circular, donde los productos están diseñados para la longevidad, la capacidad de reparación y el reciclaje. Las grandes empresas de tecnología están desviando la culpa a sus proveedores y ejerciendo una presión indebida sobre los reguladores. Al imaginar el futuro, ¿qué elementos podrían formar la base de un modelo de negocio sostenible viable para los proveedores de tecnología?

La industria tecnológica: modelos de negocio insostenibles

En lugar de desviar la responsabilidad hacia los proveedores y los responsables políticos, BigTech debe enfrentar una cultura subyacente que facilita el daño ambiental y los riesgos ESG. Las empresas de tecnología deben reconocer la cultura que han fomentado, una que prospera en la obsolescencia programada, sirviendo como facilitador y beneficiario. La obsolescencia programada se refiere a la creación intencional de productos con una vida útil limitada. Esta táctica tiene como objetivo estimular las ventas de nuevos productos y actualizaciones con un diseño artificialmente limitado y deliberadamente frágil, haciendo que el producto sea obsoleto. Para abordar realmente su impacto ambiental, BigTech necesita asumir la responsabilidad intrínseca a sus propias prácticas en lugar de intentar cambiarla a otro lugar.

Una ilustración sorprendente del impacto ambiental de las tecnologías se encuentra en el entrenamiento de modelos. La Agencia Internacional de Energía destaca una proyección asombrosa: el consumo de electricidad del centro de datos en Dinamarca se multiplicará por seis para 2030, lo que representa el 15% del uso total de electricidad de la nación. Además, el consumo de energía se agrava cuando los algoritmos se ponen en marcha para procesar datos. Las ramificaciones de los grandes modelos lingüísticos para las emisiones de CO2 se entrelazan con dominios como el monitoreo de la deforestación, el modelado de la crisis climática y las herramientas de IA para la gestión de la energía. Este panorama requiere enfoques proactivos, como las iniciativas de compensación de emisiones de Meta.

A veces, la búsqueda de ganancias inmediatas puede eclipsar un compromiso con la sostenibilidad a largo plazo para las entidades de BigTech. Han mostrado su voluntad de eludir abordar cuestiones fundamentales inherentes a sus modelos de negocio, que van desde las preocupaciones de privacidad hasta las repercusiones ambientales, cuando tales asuntos se perciben como posibles perjuicios para los márgenes de beneficio. Fundamentalmente, estas estrategias se extienden más allá de los límites de BigTech, e impregnan varias industrias, donde las corporaciones dominantes se esfuerzan por salvaguardar sus intereses. Sin embargo, las implicaciones éticas siguen siendo sustanciales, afectando a los proveedores, consumidores, competidores y la sociedad en general. Esto subraya la importancia de aumentar la conciencia pública. Un esfuerzo concertado es esencial para garantizar la rendición de cuentas y fomentar un panorama ético que trascienda la ganancia inmediata en favor de la sostenibilidad empresarial a largo plazo.

Los reguladores: ¿actuar en interés de quién?

En sus esfuerzos por influir en las regulaciones, los principales conglomerados tecnológicos a menudo emplean estrategias para desviar el escrutinio de sus propias acciones y prácticas. Estos gigantes tecnológicos poseen recursos considerables para influir en las decisiones regulatorias. A través de estos esfuerzos, pueden moldear políticas y reglas para alinearse con sus objetivos comerciales. Esta manipulación de los marcos regulatorios puede establecer un entorno que favorezca su rentabilidad.

Si bien los titulares sugieren que BigTech busca la regulación de la IA, la narrativa diverge entre los Estados Unidos y la Unión Europea. Si bien los líderes de la industria BigTech de EE.UU. plantean preocupaciones, muestran resistencia a la supervisión en la UE. Líderes de compañías prominentes como Alphabet, Google, Microsoft, OpenAI y Anthropic, se reunieron recientemente con la administración Biden. Durante esta reunión, el presidente Biden enfatizó la necesidad de que las empresas garanticen la seguridad de sus productos antes del lanzamiento público. Este encuentro coincide con varias iniciativas de la Casa Blanca para gobernar la IA, como la evaluación de los sistemas generativos de IA existentes, la formulación de nuevas políticas de IA para los servicios públicos y la inversión en investigación y desarrollo de IA estadounidense responsable.

Estos mismos CEOs de BigTech también comparecieron ante el Senado de los Estados Unidos, y las audiencias del Congreso adoptaron un tono de confrontación hacia los ejecutivos de tecnología. Figuras como Mark Zuckerberg y Jeff Bezos han enfrentado duros cuestionamientos en el Capitolio por parte de legisladores que expresan su insatisfacción con sus compañías. Se puede observar una participación similar en sus opiniones sobre la Ley de IA de la UE, con el CEO de OpenAI, Sam Altman añadiendo que las regulaciones excesivas podrían llevar a OpenAI a salir del mercado de la UE.

A pesar de sus llamados a la regulación, uno no puede evitar sentirse perplejo. El presidente de Alphabet, la empresa matriz de Google, ofreció recomendaciones para la regulación de la IA. El presidente de Microsoft esbozó un plan integral para la regulación de la industria. El CEO de OpenAI incluso compareció ante el Congreso para apoyar propuestas como la concesión de licencias de herramientas de IA y una nueva agencia reguladora federal. La paradoja surge cuando estos gigantes tecnológicos abogan por reglas que aumentarían sus costos y obstáculos.

Estas empresas podrían priorizar su propio interés sobre el bienestar público, incluso cuando se introduzcan las regulaciones de IA. Si bien las empresas establecidas experimentarían mayores costos debido a la regulación, la carga para las nuevas empresas más pequeñas sería aún mayor. Las empresas establecidas con un amplio capital pueden absorber estos gastos, pero las empresas de IA más pequeñas pueden tener dificultades, lo que podría conducir a adquisiciones o cierres. Además, las regulaciones propuestas crearían barreras de entrada sustanciales, obstaculizando la entrada de nuevas empresas en la industria. Al impedir el crecimiento de las empresas más pequeñas, estas regulaciones salvaguardarían la posición de mercado de las corporaciones tecnológicas más grandes al eliminar posibles amenazas competitivas.

Esta inclinación por la regulación se alinea con los intereses de las empresas BigTech. Por ejemplo, respaldan la idea de otorgar licencias para empresas que emplean poderosas herramientas de IA, lo que podría ejercer una presión financiera indebida sobre las entidades más pequeñas en lugar de considerar su propio modelo de negocio insostenible. Además, las regulaciones afectarían negativamente a los consumidores al disminuir la competencia y permitir a las empresas de BigTech aumentar los precios de sus productos de IA. La innovación podría sufrir a medida que se excluyen los nuevos participantes y las ideas frescas, mientras que las empresas establecidas podrían carecer del incentivo para innovar, ya que han asegurado su posición en el mercado.

El motivo subyacente detrás de la defensa de BigTech para la regulación de la IA se vuelve más claro cuando se consideran los beneficios cosechados al reducir la competencia. En lugar de asumir que la regulación de estos gigantes tecnológicos defiende el beneficio público, es importante reconocer su propio interés. Sus recomendaciones de política podrían no servir necesariamente al bien común.

Los proveedores: aguas arriba y aguas abajo

La dinámica entre las principales corporaciones tecnológicas y sus proveedores permite una oportunidad significativa para ejercer influencia en la cadena de suministro. Esto puede incluir negociar precios reducidos de los proveedores, términos mejorados o incluso implicar sutilmente un posible cambio de proveedores en caso de que no se cumplan las condiciones específicas. Este juego de poder establece una relación asimétrica, ya que los proveedores, temiendo perder un cliente importante, podrían ceder a estas demandas.

En el panorama actual de la conciencia ambiental, las empresas están teniendo cada vez más en cuenta su huella de carbono y las métricas ESG. Esta evaluación integral se extiende a la cadena de suministro de la empresa. Las corporaciones pueden obtener puntajes de sostenibilidad general más altos al crear un incentivo para que los proveedores giren hacia fuentes de energía renovables, influyendo en la evaluación final. En consecuencia, el ejercicio de presión sobre los proveedores para que adopten las energías renovables se convierte en un movimiento estratégico para garantizar que las prácticas ecológicas resuenen en toda la cadena de suministro. La contradicción se hace evidente cuando las empresas presionan para que se realicen modificaciones aguas arriba, pero no abordan su propio impacto.

Si bien la transición a fuentes de energía renovables tiene una importancia inmensa en el ámbito de la conservación del medio ambiente, este cambio por sí solo podría no garantizar un modelo de negocio inherentemente sostenible. Surgen desafíos, como las inversiones iniciales sustanciales requeridas para la infraestructura de energía renovable y la naturaleza intermitente de las fuentes renovables como la solar y la eólica. Estos factores pueden introducir complejidades financieras y operativas para las empresas. Una perspectiva más amplia es imperativa para lograr un enfoque integral y holístico de la sostenibilidad.

Incluso con la integración de las energías renovables, se debe considerar un cambio fundamental en la forma en que se utilizan los materiales. La urgencia de la situación se deriva del agotamiento acelerado de los materiales de la Tierra, que requiere un cambio de paradigma hacia un consumo de recursos y un uso de energía más conscientes. La trayectorias actual de consumo de recursos está superando la capacidad de renovación de la Tierra, lo que subraya la necesidad de cambio. Un modelo de negocio sostenible requiere que se adopte un enfoque multifacético. Si bien la energía renovable es un componente crítico, debe coexistir con otras estrategias que mitiguen el agotamiento de los recursos. Esto requiere adoptar una economía circular, con productos tecnológicos diseñados para la longevidad y la reciclabilidad. La presión sobre los recursos puede reducirse sustancialmente cambiando de un modelo lineal de «tomar, fabricar, desechar» visto en la cultura de obsolescencia planificada de BigTech a uno que enfatiza una economía circular.

La tecnología que apoya la economía circular debe concebirse con un enfoque principal en su potencial de desmontaje y regeneración desde su diseño. Por ejemplo, los inmensamente populares AirPods de Apple están compuestos de tungsteno, estaño, tantalio, litio y cobalto, todos envueltos en una carcasa de plástico que no se puede abrir. Desafortunadamente, su vida útil operativa es de solo 18 meses, pero al igual que muchos otros productos de Apple, los AirPods no están diseñados intencionalmente para su reparación. La batería de iones de litio los hace potencialmente peligrosos en vertederos debido al riesgo de incendio. Si bien Apple ha introducido una iniciativa de reciclaje de AirPods, el cobalto se puede recuperar de la batería, pero el valor de los materiales reciclables puede no compensar adecuadamente los gastos incurridos durante el proceso de recuperación.

Las empresas de BigTech están haciendo que los proveedores upstream se vuelvan renovables mientras no están convirtiendo sus propias prácticas. Están imponiendo una falta de sostenibilidad a otra persona sin reconocer la necesidad de mirar el desperdicio de material. Incluso si BigTech convenciera a todos sus proveedores para que asumieran la energía renovable, uno todavía debe considerar el desperdicio material, la adopción de energía renovable no es suficiente para combatir este desperdicio sin adoptar una economía circular. No es solo upstream lo que importa, BigTech debe considerar su materialidad.

Lograr un equilibrio armonioso entre la adopción de energía renovable, los principios de la economía circular y el consumo consciente de recursos es primordial. Esta estrategia constituye un verdadero paso hacia el establecimiento de un modelo de negocio sostenible que respete nuestro medio ambiente y la longevidad de nuestras industrias.

Imaginando el futuro

¿Qué podría constituir un modelo de negocio sostenible para los proveedores de tecnología que contemplan el futuro? ¿Existen cambios imperativos en el modelo de negocio que las empresas de tecnología deberían contemplar? Un desafío clave radica en alejarse del enfoque convencional de obsolescencia programada, que se basa en la rotación frecuente del producto.

Los cambios transformadores específicos deben estar a la vanguardia de sus consideraciones para dar forma a un modelo de negocio sostenible para los proveedores de tecnología orientados al futuro. Si bien se han logrado algunos progresos, las empresas de tecnología promocionan sus movimientos hacia una economía circular como centrales para sus objetivos de sostenibilidad. Los desarrollos recientes, como el mandato de que todos los teléfonos móviles, tabletas y cámaras vendidos en la UE deben contar con un puerto de carga USB tipo C para fines de 2024, con computadoras portátiles siguiendo su ejemplo a partir de la primavera de 2026, es un paso hacia prácticas sostenibles.

Es evidente que se necesitan más que estas iniciativas para impulsar los cambios integrales requeridos. En lugar de centrarse únicamente en estas medidas, el quid radica en abrazar una transformación sistémica intrínseca a un modelo de negocio sostenible para BigTech. El concepto de economía circular ocupa un lugar central, instándonos a recalibrar nuestro enfoque de la producción y el consumo de tecnología, una transición que idealmente debería haber comenzado hace años.

En medio de la actual conciencia ambiental, el panorama industrial ha comenzado a fomentar modelos de negocios sostenibles. Adaptarse a los nuevos modelos de negocio de manera efectiva es vital para mantener una ventaja competitiva y mejorar los logros de sostenibilidad de una organización. En este paradigma previsto, el crecimiento económico de BigTech pivota desde el consumo y el agotamiento de los recursos naturales finitos a una economía circular basada en el uso juicioso y sostenible de los recursos. Esto implica un reciclaje eficiente dentro de un sistema de circuito cerrado, al tiempo que se frena sistemáticamente la generación de residuos.


Una agenda política para el progreso responsable de la IA – Oportunidad, responsabilidad, seguridad

Estamos en la cúspide de una nueva era, permitiéndonos imaginar las formas en que podemos mejorar significativamente las vidas de miles de millones de personas, ayudar a las empresas a prosperar y crecer y apoyar a la sociedad para responder a nuestras preguntas más difíciles. Al mismo tiempo, todos debemos tener claro que la IA conllevará riesgos y desafíos.

En este contexto, estamos comprometidos a avanzar con audacia, responsabilidad y en asociación con otros.

Es poco probable que los llamamientos para detener los avances tecnológicos tengan éxito o sean efectivos, y corren el riesgo de perder los beneficios sustanciales de la IA y quedarse atrás de quienes abrazan su potencial. En cambio, necesitamos esfuerzos de base amplia, en todo el gobierno, las empresas, las universidades y más, para ayudar a traducir los avances tecnológicos en beneficios generalizados, al tiempo que mitigamos los riesgos.

Existe un libro blanco con recomendaciones de políticas para la IA en el que se alienta a los gobiernos a centrarse en tres áreas clave: desbloquear oportunidades, promover la responsabilidad y mejorar la seguridad:

1. Desbloquear oportunidades maximizando la promesa económica de la IA

Las economías que adopten la IA experimentarán un crecimiento significativo, superando a sus rivales que son más lentos en la aceptación. La IA ayudará a muchas industrias diferentes a producir productos y servicios más complejos y valiosos, y ayudará a aumentar la productividad a pesar de los crecientes desafíos demográficos. La IA también promete dar un impulso tanto a las pequeñas empresas que utilizan productos y servicios impulsados por IA para innovar y crecer, como a los trabajadores que pueden centrarse en elementos no rutinarios y más gratificantes de sus trabajos.

Lo que se necesita para hacer esto bien: Para desbloquear la oportunidad económica que ofrece la IA y minimizar las interrupciones de la fuerza laboral, los responsables políticos deben invertir en innovación y competitividad, promover marcos legales que apoyen la innovación responsable de la IA y preparar a las fuerzas laborales para la transición laboral impulsada por la IA. Por ejemplo, los gobiernos deben explorar la investigación fundamental de IA a través de laboratorios nacionales e instituciones de investigación, adoptar políticas que apoyen el desarrollo responsable de la IA (incluidas las leyes de privacidad que protegen la información personal y permiten flujos de datos confiables a través de las fronteras nacionales) y promover la educación continua, los programas de capacitación, el movimiento de talentos clave a través de las fronteras y la investigación sobre el futuro del trabajo en evolución.

2. Promover la responsabilidad al tiempo que se reducen los riesgos de uso indebido

La IA ya está ayudando al mundo a enfrentar desafíos que van desde las enfermedades hasta el cambio climático, y puede ser una fuerza poderosa para el progreso. Pero si no se desarrollan y despliegan de manera responsable, los sistemas de IA también podrían amplificar los problemas sociales actuales, como la desinformación, la discriminación y el mal uso de las herramientas. Y sin confianza en los sistemas de IA, las empresas y los consumidores dudarán en adoptar la IA, lo que limitará su oportunidad de capturar los beneficios de la IA.

Lo que se necesita para hacer esto bien: Abordar estos desafíos requerirá un enfoque de gobernanza de múltiples partes interesadas. Aprendiendo de la experiencia de Internet, las partes interesadas se sentarán a la mesa con una comprensión saludable tanto de los beneficios potenciales como de los desafíos. Algunos desafíos requerirán investigación fundamental para comprender mejor los beneficios y riesgos de la IA, y cómo gestionarlos, y desarrollar e implementar nuevas innovaciones técnicas en áreas como la interpretabilidad y la marca de agua. Otros se abordarán mejor mediante el desarrollo de estándares comunes y mejores prácticas compartidas y una regulación proporcional basada en el riesgo para garantizar que las tecnologías de IA se desarrollen y desplieguen de manera responsable. Y otros pueden requerir nuevas organizaciones e instituciones. Por ejemplo, las empresas líderes podrían unirse para formar un Foro Global sobre IA (GFAI), basándose en ejemplos anteriores como el Foro Global de Internet para Combatir el Terrorismo (GIFCT). La alineación internacional también será esencial para desarrollar enfoques políticos comunes que reflejen los valores democráticos y eviten la fragmentación.

3. Mejorar la seguridad global y evitar que actores malintencionados exploten esta tecnología

La IA tiene implicaciones importantes para la seguridad y la estabilidad mundiales. La IA generativa puede ayudar a crear (pero también identificar y rastrear) información errónea y desinformación y medios manipulados. La investigación de seguridad basada en IA está impulsando una nueva generación de defensas cibernéticas a través de operaciones de seguridad avanzadas e inteligencia de amenazas, mientras que los exploits generados por IA también pueden permitir ataques cibernéticos más sofisticados por parte de los adversarios.

Lo que se necesita para hacer esto bien: El primer paso es establecer barreras técnicas y comerciales para evitar el uso malicioso de la IA y trabajar colectivamente para abordar a los malos actores, al tiempo que se maximizan los beneficios potenciales de la IA. Por ejemplo, los gobiernos deberían explorar políticas de control comercial de próxima generación para aplicaciones específicas de software impulsado por IA que se consideran riesgos de seguridad, y en entidades específicas que brindan apoyo a la investigación y el desarrollo relacionados con la IA de maneras que podrían amenazar la seguridad global. Los gobiernos, el mundo académico, la sociedad civil y las empresas también necesitan una mejor comprensión de las implicaciones de los sistemas de IA cada vez más poderosos, y cómo podemos alinear la IA sofisticada y compleja con los valores humanos. Al final del día, la seguridad es un deporte de equipo y el progreso en este espacio requerirá cooperación en forma de investigación conjunta, adopción de la mejor gobernanza de datos de su clase, foros público-privados para compartir información sobre vulnerabilidades de seguridad de IA y más.

Reflexiones finales

Con un reconocimiento completo de los desafíos potenciales, confiamos en que una agenda política centrada en los pilares clave de oportunidad, responsabilidad y seguridad puede desbloquear los beneficios de la IA y garantizar que esos beneficios sean compartidos por todos.

Como hemos dicho antes, la IA es demasiado importante para no regular, y demasiado importante para no regular bien. Desde el marco AI Verify de Singapur hasta el enfoque pro-innovación del Reino Unido para la regulación de IA y el Marco de Gestión de Riesgos de IA del Instituto Nacional de Estándares y Tecnología de Estados Unidos, nos alienta ver que los gobiernos de todo el mundo abordan seriamente los marcos de políticas adecuados para estas nuevas tecnologías, y esperamos apoyar sus esfuerzos.



Deja una respuesta