IA y la Ley: El Paisaje Legislativo en Evolución Rápida
- Valeria Navarro
- Dec 4, 2023
- 4 min read
Updated: Jan 12, 2024

El panorama de la inteligencia artificial está cambiando continuamente y rápidamente. Nuevas tecnologías aparecen y desaparecen todo el tiempo. Las fuentes de datos se descubren y cierran regularmente. Miles de millones de dólares se invierten en nuevas empresas, y se anuncian miles de pérdidas de empleo aparentemente todos los días. Puede ser difícil seguir todos estos cambios (aunque seguir a IntAr es un buen comienzo), pero algunos merecen más atención que otros. Un ejemplo de esto son los recientes anuncios que afectan el entorno legal que rodea la inteligencia artificial.
IA Segura y Confiable
El 30 de octubre, el presidente de Estados Unidos, Joe Biden, anunció una amplia Orden Ejecutiva sobre Inteligencia Artificial Segura, Segura y Confiable. El objetivo es promover el desarrollo y uso seguro de la IA que esté en "interés del pueblo estadounidense". Es un objetivo muy amplio y hay preguntas obvias sobre cómo funcionará en la práctica.
El Acuerdo Bletcherly sobre IA
Mientras tanto, el primer ministro del Reino Unido, Rishi Sunak, organizó una cumbre sobre IA, reuniendo a líderes de la industria y funcionarios gubernamentales para discutir el potencial de daño catastrófico a la humanidad por la IA. Esto llevó a la firma del "Acuerdo Bletcherly", alineando a las superpotencias del mundo sobre cómo controlar y monitorear la "IA fronteriza".
La Perspectiva de la UE sobre la Legislación de IA
La UE, sin querer quedarse atrás en esta carrera legislativa, está buscando implementar nuevas leyes integrales para asegurar que la IA sea supervisada por personas y no por sistemas automatizados, para evitar resultados perjudiciales. Aunque el Parlamento Europeo introdujo por primera vez legislación sobre IA en 2021, que era esencialmente un marco para identificar y clasificar la IA. En el momento de escribir esto, no hay leyes de la UE para controlar el desarrollo o el uso de la inteligencia artificial. Más bien, el primer impulso es registrar la IA y asegurarse de que siga los marcos legales existentes dentro del bloque.
¿Por qué Legislar la Inteligencia Artificial?
Entonces, ¿qué significa todo esto? En verdad, probablemente hará muy poco para cambiar la trayectoria de la inteligencia artificial. Los intereses comerciales han estado contentos con eludir a sus propios gobiernos al trasladar la producción al extranjero a lugares con menos legislación, utilizando estructuras legales complejas para aprovechar los paraísos fiscales o simplemente burlando abiertamente el sistema.
Entonces, ¿por qué los gobiernos de todo el mundo se apresuran a legislar sobre la IA? Probablemente haya muchas respuestas a esa pregunta, pero una cosa es cierta. La amenaza de una "IA descontrolada" es muy real. Mientras que el enfoque público de la IA se ha centrado en la IA generativa, como ChatGPT, y las posibles pérdidas de empleo, muchas otras aplicaciones son mucho más preocupantes. Actores malintencionados podrían utilizar la IA para desarrollar armas biológicas más allá de nuestra capacidad actual para defendernos de ellas. Gran parte de nuestra infraestructura estratégica (piensa en redes eléctricas, control de tráfico aéreo y redes de telecomunicaciones) funciona con software. Donde celebramos la aplicación de la IA en estas áreas con desarrollos como las redes autoreparables, también somos igualmente vulnerables a la IA autónoma diseñada para atacar esta misma infraestructura.
Por qué la Legislación Actual de IA Fracasará
Estos intentos recientes de los gobiernos de proteger a la sociedad de aplicaciones perjudiciales de la IA son demasiado poco, demasiado tarde. Los avances en la IA en los últimos dos años han sido asombrosos y estos movimientos son como cerrar la puerta del establo después de que el caballo se ha escapado. Incluso si obligar a las empresas en Europa y Estados Unidos a registrar su IA, autenticarla y compartirla con el gobierno funciona para algunas empresas, casi por definición, los grupos o individuos con malas intenciones simplemente ignorarán la ley. Incluso los desarrolladores bien intencionados probablemente se mudarán al extranjero para evitar la burocracia asociada con estas leyes. El desarrollo de la IA no requiere laboratorios, equipos pesados o suministros difíciles de obtener que históricamente han sido fáciles de regular. Cualquier persona con una computadora portátil y una comprensión rudimentaria de Python puede aprovechar bibliotecas de código abierto y construir modelos de IA desde cualquier parte del planeta.
Incluso si la legislación sobre la IA tuviera éxito, tal como se pretendía, no necesariamente sería algo bueno. Una preocupación evidente es la de frenar la innovación. Esto se aplica a naciones específicas y a la humanidad en su conjunto. Si los Estados Unidos, por ejemplo, se convierten en una jurisdicción altamente regulada para cualquiera que busque construir sistemas de inteligencia artificial, lo más probable es que otros países se conviertan en líderes mundiales en términos de desarrollo de IA. Ya muchos países occidentales están rezagados en comparación con Rusia y China en términos de desarrollo tecnológico. ¿Ayudaría más legislación en ese sentido?
Además, algunos de los posibles beneficios de la inteligencia artificial se encuentran en áreas enormemente complejas como la biotecnología y la atención médica. La investigación en tales campos a menudo requiere acceso a instituciones académicas, equipos médicos y vastos fondos. Esto es algo que serviría mucho mejor con un enfoque global, coherente y unido. Un enfoque de legislación país con país casi con seguridad no abonará a la humanidad a obtener estos beneficios de la IA.
¿Cómo podemos protegernos de la inteligencia artificial?
En lugar de legislar los resultados de la IA, se necesita con urgencia un enfoque más integral para abordar todas las preocupaciones legítimas en torno a la inteligencia artificial. ¿Podemos construir una infraestructura estratégica que no sea tan vulnerable a la piratería informática con IA? ¿Podemos desdigitalizar algunas áreas que son particularmente vulnerables a los ataques? Sea lo que sea que hagamos, para tener alguna posibilidad de prevenir resultados catastróficos, se necesita una respuesta verdaderamente global. La URSS y EE. UU. pudieron acordar la no proliferación nuclear durante la Guerra Fría. Podría ser necesario un enfoque similar para proteger a la humanidad de algunos de los resultados más extremos de la IA. No tengo duda de que la inteligencia artificial beneficiará a la humanidad a largo plazo, pero las órdenes ejecutivas y los marcos de registro harán poco para contrarrestar cualquiera de los aspectos negativos.