La UE acuerda una legislación sobre IA, la regulación clave para la inteligencia artificial

Los responsables políticos de la UE acordaron el viernes una nueva ley para regular la inteligencia artificial, uno de los primeros intentos integrales del mundo para regular el uso de una tecnología de rápido crecimiento con amplias implicaciones sociales y económicas.

La ley, conocida como Ley de IA, establece un nuevo punto de referencia global para los países que buscan aprovechar los beneficios potenciales de la tecnología mientras intentan protegerse contra riesgos potenciales como la automatización de empleos, la difusión de información errónea en línea y poner en peligro la seguridad nacional. La legislación aún necesita aprobar algunos pasos finales para ser aprobada, pero el acuerdo político significa que se han fijado sus principales parámetros.

Los formuladores de políticas europeas se centraron en los usos riesgosos de la IA por parte de empresas y gobiernos, incluida la aplicación de la ley y la operación de servicios críticos como el agua y la energía. Los desarrolladores de grandes sistemas de inteligencia artificial de uso general, como los que ejecutan el chatbot ChatGPT, enfrentarán nuevos requisitos de transparencia. Según funcionarios de la UE y borradores anteriores de la ley, los chatbots y el software que crean imágenes manipuladas como los «deepfakes» deben dejar claro que lo que la gente ve es creado por IA.

El uso de software de reconocimiento facial está restringido por la policía y los gobiernos fuera de ciertas excepciones de seguridad nacional y de seguridad. Las empresas que violen las regulaciones enfrentan multas de hasta el 7 por ciento de las ventas globales.

«Europa se ha posicionado como pionera, comprendiendo la importancia de su papel como emisor de normas globales», dijo el Comisario europeo Thierry Breton, quien ayudó a negociar. Acuerdodijo en un comunicado.

READ  Ofertas de computadoras portátiles Prime Day 2023: ahorre en MacBooks, Galaxy Books, Chromebooks, Microsoft Surface y más

Si bien la ley ha sido aclamada como un avance regulatorio, quedan dudas sobre su eficacia. No se espera que muchos aspectos de la política entren en vigor hasta dentro de 12 a 24 meses, un período de tiempo considerable para el desarrollo de la IA. Hasta el último minuto de las negociaciones, los formuladores de políticas y los países lucharon con su lenguaje y cómo equilibrar el fomento de la innovación con la necesidad de proteger contra daños potenciales.

El acuerdo alcanzado en Bruselas requirió tres días de negociaciones, incluida una sesión inicial de 22 horas que comenzó el miércoles por la tarde y se prolongó hasta el jueves. No se hizo público de inmediato un acuerdo final, ya que se espera que continúen las negociaciones entre bastidores para ultimar los detalles técnicos, lo que podría retrasar la aprobación final. votos Para ser conducido En el Parlamento y el Consejo de Europa, que incluye representantes de los 27 países de la Unión.

La regulación de la IA es urgente después del lanzamiento de ChatGPT el año pasado, que creó un revuelo mundial al mostrar las capacidades avanzadas de la IA. En Estados Unidos, la administración Biden emitió recientemente una orden ejecutiva que aborda las implicaciones de la IA para la seguridad nacional. Gran Bretaña, Japón y otros países han adoptado un enfoque más no intervencionista, mientras que China ha impuesto algunas restricciones al uso de datos y a los mecanismos de referencia.

están en riesgo El valor estimado es de billones de dólares. Se prevé que la IA remodelará la economía global. «La supremacía tecnológica precede a la supremacía económica y a la supremacía política», dijo el ministro digital de Francia, Jean-Noël Parrott. dicho Esta semana.

READ  Las acciones asiáticas caen, el dólar reafirma las preocupaciones sobre el crecimiento, perspectivas de la Fed

Europa está a la vanguardia en la regulación de la IA y comenzó a trabajar para convertirse en una ley de IA en 2018. En los últimos años, los líderes de la UE han intentado llevar un nuevo nivel de supervisión a la tecnología. Industrias de mantenimiento o bancarias. El grupo ya ha promulgado leyes de gran alcance sobre privacidad de datos, competencia y regulación de contenidos.

El primer borrador de la Ley de IA se publicó en 2021. Pero los formuladores de políticas se vieron obligados a reescribir la ley a medida que surgían los avances tecnológicos. La versión inicial no mencionaba los modelos de IA de propósito general que implementaran ChatGPT.

Los formuladores de políticas acordaron lo que llamaron un «enfoque basado en el riesgo» para regular la IA, donde las aplicaciones limitadas enfrentan una mayor supervisión y regulación. Las empresas que desarrollan herramientas de IA que tienen el mayor daño potencial para los individuos y la sociedad, como en el empleo y la educación, deben proporcionar a los reguladores evidencia de evaluaciones de riesgos, qué datos se utilizaron para entrenar las computadoras y las garantías que dio el software. No debería causar daños como perpetuar prejuicios raciales. La construcción y el despliegue de sistemas también requerirán supervisión humana.

Algunas prácticas, como la extracción indiscriminada de imágenes de Internet para crear una base de datos de reconocimiento facial, estarán totalmente prohibidas.

El debate de la UE fue controvertido, una señal de cómo la IA ha confundido a los legisladores. Los funcionarios de la UE están divididos sobre cuán profundamente regularán los nuevos sistemas de IA, temiendo que asfixien a las nuevas empresas europeas que intentan alcanzar a las empresas estadounidenses como Google y OpenAI.

READ  Ford Electric F-150 Lightning reduce el precio debido a la disminución de la demanda

La ley agregó requisitos para que los desarrolladores de modelos masivos de IA revelen información sobre cómo funcionan sus sistemas y evalúen el «riesgo sistemático». Señor. dijo Bretón.

Las nuevas regulaciones serán seguidas de cerca en todo el mundo. Afectarán no sólo a los principales desarrolladores de IA, como Google, Meta, Microsoft y OpenAI, sino también a otras empresas que se espera que utilicen la tecnología en sectores como la educación, la atención sanitaria y la banca. Los gobiernos están prestando más atención a la IA en la justicia penal y la prestación de bienestar público.

La aplicación de la ley no está clara. La Ley de IA cubre a los reguladores de 27 países y exige la contratación de nuevos expertos en un momento en que los presupuestos gubernamentales son ajustados. Es probable que se presenten desafíos legales a medida que las empresas prueben las nuevas reglas en los tribunales. La legislación anterior de la UE, incluida una ley clave de privacidad digital conocida como Reglamento General de Protección de Datos, ha sido criticada por su implementación inconsistente.

«La capacidad regulatoria de la UE está en duda», afirmó Chris Srishak, miembro del Consejo Irlandés para las Libertades Civiles, que asesora a los legisladores europeos sobre la legislación sobre IA. «Sin una aplicación estricta, este acuerdo no tendrá sentido».

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *