Se aprueba la ley de la UE sobre inteligencia artificial, ahora viene la espera

Se aprueba la ley de la UE sobre inteligencia artificial, ahora viene la espera

Las tres ramas de la UE han acordado provisionalmente su histórica regulación de la inteligencia artificial, allanando el camino para que el bloque económico prohíba ciertos usos de la tecnología y exija transparencia a los proveedores. Pero a pesar de las advertencias de algunos líderes mundiales, los cambios que requerirán las empresas de IA aún no están claros, y tal vez estén muy lejos.

La ley de IA se propuso por primera vez en 2021 y aún no ha sido aprobada en su totalidad. Las concesiones de último momento que fueron objeto de acalorados debates han mitigado algunas de las amenazas regulatorias más duras. Es probable que la implementación no comience hasta dentro de años. “A muy corto plazo, el acuerdo sobre la ley de IA de la UE no tendrá mucho impacto directo en los diseñadores de IA certificados en Estados Unidos porque, según sus términos, probablemente no entrará en vigor hasta 2025”, dice Paul Barrett. , subdirector del Centro Stern para Empresas y Derechos Humanos de la Universidad de Nueva York.

Entonces, por ahora, Barrett dice que los principales actores de la IA como OpenAI, Microsoft, Google y Meta probablemente seguirán luchando por el dominio, especialmente mientras navegan por la incertidumbre regulatoria en los Estados Unidos.

La ley de IA comenzó antes de la explosión de las herramientas de inteligencia artificial de propósito general (GPAI), como el modelo de lenguaje grande GPT-4 de OpenAI, y su regulación se ha convertido en un punto de fricción notoriamente complejo en los debates de último minuto. La ley divide sus reglas según el nivel de riesgo que un sistema de IA representa para la sociedad, o como dijo la Unión Europea en un declaración«Cuanto mayores son los riesgos, más estrictas se vuelven las reglas».

Pero a algunos Estados miembros les preocupa que tal rigor pueda convertir a la UE en un mercado poco atractivo para la inteligencia artificial. Francia, Alemania e Italia han presionado para aliviar las restricciones a la GPAI durante las negociaciones. Obtuvieron acuerdos, incluida la limitación de lo que se considerarían sistemas de “alto riesgo”, que luego estarían sujetos a reglas más estrictas. En lugar de clasificar todas las GPAI como de alto riesgo, habría un sistema de dos niveles y excepciones para las fuerzas del orden para usos estrictamente prohibidos de la IA, como la identificación biométrica remota.

READ  Jeffrey Clark: Un funcionario del Departamento de Justicia de la era Trump está tratando de trasladar los cargos de Georgia a un tribunal federal en una audiencia el lunes

Esto todavía no satisfizo a todos los críticos. El presidente francés, Emmanuel Macron. atacar las basesDecir que la ley de IA crea un entorno regulatorio difícil que obstaculiza la innovación. Barrett dijo que algunas nuevas empresas europeas de IA pueden tener dificultades para recaudar capital según las normas actuales, lo que da una ventaja a las empresas estadounidenses. Las empresas fuera de Europa también pueden optar por evitar establecerse en la región o bloquear el acceso a las plataformas para no ser multadas por violar las reglas, un riesgo potencial que Europa también ha enfrentado en la industria de tecnología distinta de la IA, siguiendo las regulaciones. Como la Ley de Mercados Digitales y la Ley de Servicios Digitales.

Pero las reglas también evitan algunas de las cuestiones más controvertidas en torno a la IA generativa.

Los modelos de IA entrenados con datos disponibles públicamente, pero sensibles y potencialmente protegidos por derechos de autor, se están volviendo grandes Un punto de discordia para las organizaciones, por ejemplo. Sin embargo, las reglas temporales no crean nuevas leyes sobre la recopilación de datos. Si bien la Unión Europea ha sido pionera en leyes de protección de datos con su Reglamento General de Protección de Datos, sus reglas de IA no impiden que las empresas recopilen información, aparte de exigirles que sigan las pautas del RGPD.

“Según las reglas, es posible que las empresas tengan que proporcionar un resumen de transparencia o una etiqueta de suministro de datos”, dice Susan Ariel Aronson, directora del Centro para el Comercio Digital y la Gobernanza de Datos y profesora investigadora de asuntos internacionales en la Universidad George Washington. «Pero en realidad no cambiará el comportamiento de las empresas en torno a los datos».

Aaronson señala que la ley de IA aún tiene que aclarar cómo las empresas deben manejar el material protegido por derechos de autor que forma parte de los datos de capacitación típicos, más allá de señalar que los desarrolladores deben seguir las leyes de derechos de autor existentes (que dejan muchas áreas grises sobre la inteligencia artificial). Por lo tanto, no proporciona ningún incentivo para que los desarrolladores de modelos de IA eviten el uso de datos protegidos por derechos de autor.

READ  Japón lanza con éxito un misil H3 – DW – 17/02/2024

La Ley de IA tampoco aplicará sus multas potencialmente estrictas a los desarrolladores, investigadores y pequeñas empresas de código abierto que operan en la parte inferior de la cadena de valor, una decisión que ha sido aplaudida por los desarrolladores de código abierto en el campo. Este es «un avance positivo para la innovación abierta y los desarrolladores que trabajan para ayudar a resolver algunos de los problemas más apremiantes de la sociedad», dijo Shelley McKinley, directora legal de GitHub. (GitHub, un popular centro de desarrollo de código abierto, es una subsidiaria de Microsoft).

Los observadores creen que el efecto más obvio podría ser la presión sobre otras figuras políticas, especialmente los responsables políticos estadounidenses, para que actúen más rápido. No es el primer marco regulatorio importante para la IA: en julio, China emitió directrices para las empresas que quieran vender servicios de IA al público. Pero el proceso de desarrollo relativamente transparente y altamente controvertido de la UE le ha dado a la industria de la IA una idea de qué esperar. Si bien la ley de IA puede cambiar, Aronson dijo que al menos muestra que la UE ha escuchado y respondido a las preocupaciones del público sobre la tecnología.

El hecho de que dependa de bases de datos existentes también podría alentar a los gobiernos a evaluar las regulaciones que han implementado, dice Lothar Determann, socio de privacidad de datos y TI del bufete de abogados Baker McKenzie. Las empresas de inteligencia artificial más maduras están estableciendo pautas para proteger la privacidad de conformidad con leyes como GDPR y en anticipación de políticas más estrictas, dijo Blake Brannon, director de estrategia de la plataforma de privacidad de datos OneTrust. Dependiendo de la empresa, la ley de IA es un “agregador adicional” a las estrategias que ya existen, dijo.

READ  La lava en la Palma de España se traga más edificios

Por el contrario, Estados Unidos no ha logrado promulgar una regulación de la IA, a pesar de ser el hogar de importantes actores como Meta, Amazon, Adobe, Google, Nvidia y OpenAI. Su mayor paso hasta el momento fue la orden ejecutiva de la administración Biden que ordena a las agencias gubernamentales desarrollar estándares de seguridad y aprovechar acuerdos voluntarios y no vinculantes firmados por los principales actores en el campo de la IA. Los pocos proyectos de ley presentados en el Senado se han centrado principalmente en deepfakes y marcas de agua, y los foros cerrados sobre IA celebrados por el senador Chuck Schumer (D-N.Y.) han ofrecido poca claridad sobre la dirección del gobierno en la gestión de la tecnología.

Ahora, los responsables políticos pueden analizar el enfoque de la UE y aprender lecciones de él.

Esto no significa que Estados Unidos seguirá el mismo enfoque basado en el riesgo, pero puede buscar ampliar las reglas de transparencia de datos o permitir modelos GPAI de manera más indulgente.

Navrina Singh, fundadora de Credo AI y miembro del Comité Asesor Nacional de IA, cree que aunque la Ley de IA representa un gran momento para la gobernanza de la IA, las cosas no cambiarán rápidamente y todavía queda mucho trabajo por delante.

«El enfoque de los reguladores en ambos lados del Atlántico debería ser ayudar a las organizaciones de todos los tamaños a diseñar, desarrollar e implementar de forma segura una IA que sea transparente y responsable», dice Singh. el borde En la situación actual. Agrega que todavía faltan estándares y procesos de medición, especialmente en lo que respecta a la transparencia.

Aunque la ley de IA aún no se ha ultimado, una gran mayoría de países de la UE han reconocido que esa es la dirección que quieren tomar. La ley no regula retroactivamente los modelos o aplicaciones existentes, pero las versiones futuras de GPT de OpenAI, Llama de Meta o Gemini de Google deberán tener en cuenta los requisitos de transparencia establecidos por la UE. Puede que esto no conduzca a cambios radicales de la noche a la mañana, pero sí aclara la posición de la UE sobre la inteligencia artificial.

Wilfredo Bobo

"Orgulloso entusiasta de Twitter. Introvertido. Adicto al alcohol. Especialista en comida de toda la vida. Gurú de Internet ".

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Rudy Giuliani evita testificar en caso de difamación
Previous Post Rudy Giuliani evita testificar en caso de difamación
Zelensky saluda la «victoria» cuando la UE acuerda iniciar conversaciones sobre la membresía de Ucrania |  Noticias de la UE
Next Post Zelensky saluda la «victoria» cuando la UE acuerda iniciar conversaciones sobre la membresía de Ucrania | Noticias de la UE