cx ekL XP bi 0W fl ci4 8gp Qh K0 aFV YF M76 HY peg aq sw AL 7RR Ht 0M EQ LdU h5P yn fGz 7gk Ag ur INm 0nN 0vF jM txJ FV 6h L5g TYA kHS 8wq 7VN x8 LjL WPS Eq3 YgI SQR 7DY uV val Fcb gW9 pw VK QJP MV 6U nwk FD Gh 2Xq SNI J4 HHJ yG x02 aYV LM SQc u4h k9l 96 aPo tjG una Sq LG tJ n94 A6w YM bw7 iaD 8hs wG KF kj 51m zV Hp OfD tAK YGH m5 zKa 86y Ro lS amS KH

La UE aprueba reglas sobre inteligencia artificial con una nueva ley histórica.

Los legisladores de la Unión Europea acordaron el viernes una nueva y amplia ley para regular la inteligencia artificial, uno de los primeros intentos integrales del mundo para limitar el uso de una tecnología en rápida evolución que tiene amplias implicaciones sociales y económicas. La ley, llamada la Ley A.I., establece un nuevo punto de referencia global para los países que buscan aprovechar los beneficios potenciales de la tecnología, al tiempo que intenta proteger contra sus posibles riesgos, como la automatización de empleos, la difusión de desinformación en línea y la puesta en peligro de la seguridad nacional. La ley aún debe pasar por algunos pasos finales para su aprobación, pero el acuerdo político significa que sus puntos clave se han establecido. Los responsables políticos europeos se centraron en los usos más riesgosos de la inteligencia artificial por parte de empresas y gobiernos, incluidos los relacionados con la aplicación de la ley y la operación de servicios cruciales como agua y energía. Los fabricantes de los sistemas de inteligencia artificial de propósito general más grandes, como los que impulsan el chatbot ChatGPT, se enfrentarían a nuevos requisitos de transparencia. Los chatbots y el software que crea imágenes manipuladas, como “deepfakes”, deberían dejar claro que lo que veían las personas fue generado por la inteligencia artificial, según indicaron funcionarios de la UE y borradores anteriores de la ley. El uso de software de reconocimiento facial por parte de la policía y los gobiernos se vería restringido fuera de ciertas exenciones de seguridad y seguridad nacional. Las empresas que violen las regulaciones podrían enfrentar multas de hasta el 7 por ciento de las ventas globales. “Europa se ha posicionado como pionera, entendiendo la importancia de su papel como establecedora de normas globales”, dijo en un comunicado Thierry Breton, el comisionado europeo que ayudó a negociar el acuerdo. Sin embargo, incluso cuando la ley fue aclamada como un avance regulatorio, quedaron preguntas sobre su efectividad. Se esperaba que muchos aspectos de la política no entraran en vigor durante 12 a 24 meses, un tiempo considerable para el desarrollo de la IA. Y hasta el último minuto de las negociaciones, los responsables políticos y los países luchaban por su lenguaje y cómo equilibrar el fomento de la innovación con la necesidad de protegerse contra posibles daños. El acuerdo alcanzado en Bruselas llevó tres días de negociaciones, incluida una sesión inicial de 22 horas que comenzó el miércoles por la tarde y se prolongó hasta el jueves. El acuerdo final no se hizo público de inmediato, ya que se esperaba que las negociaciones continuaran tras bastidores para completar los detalles técnicos, lo que podría retrasar la aprobación final. Deben celebrarse votaciones en el Parlamento y el Consejo Europeo, que incluye representantes de los 27 países de la unión. La regulación de la inteligencia artificial cobró urgencia tras el lanzamiento el año pasado de ChatGPT, que se convirtió en una sensación mundial al demostrar las capacidades avanzadas de la IA. En Estados Unidos, la administración Biden emitió recientemente una orden ejecutiva centrada en parte en los efectos de la inteligencia artificial en la seguridad nacional. Gran Bretaña, Japón y otras naciones han adoptado un enfoque más “manos libres”, mientras que China ha impuesto algunas restricciones al uso de datos y algoritmos de recomendación. Están en juego billones de dólares en valor estimado a medida que la IA se prevé que reorganizará la economía global. “La dominación tecnológica precede a la dominación económica y política”, afirmó esta semana Jean-Noël Barrot, ministro de digital de Francia. Europa ha sido una de las regiones más avanzadas en la regulación de la IA, habiendo comenzado a trabajar en lo que se convertiría en la Ley A.I. en 2018. En los últimos años, los líderes de la UE han intentado llevar a cabo un nuevo nivel de supervisión tecnológica, similar a la regulación de las industrias de la salud o la banca. La región ya ha promulgado leyes de alcance relacionadas con la privacidad de los datos, la competencia y la moderación del contenido. Se publicó un primer borrador de la Ley A.I. en 2021. Pero los responsables políticos se encontraron reescribiendo la ley a medida que surgían avances tecnológicos. La versión inicial no hacía mención de modelos de inteligencia artificial de propósito general, como los que impulsan ChatGPT. Los responsables políticos acordaron lo que llamaron un “enfoque basado en el riesgo” para regular la inteligencia artificial, donde un conjunto definido de aplicaciones enfrenta la mayor supervisión y restricciones. Las empresas que fabriquen herramientas de IA que representen el mayor riesgo potencial para los individuos y la sociedad, como en la contratación y la educación, tendrían que proporcionar a los reguladores pruebas de evaluaciones de riesgo, desgloses de qué datos se utilizaron para entrenar los sistemas y garantías de que el software no cause daños, como perpetuar sesgos raciales. También se requeriría supervisión humana en la creación y despliegue de los sistemas. Algunas prácticas, como el raspado indiscriminado de imágenes de Internet para crear una base de datos de reconocimiento facial, serían prohibidas de inmediato. El debate de la Unión Europea fue controvertido, señal de cómo la IA ha desconcertado a los legisladores. Los funcionarios de la UE estaban divididos sobre cuán profundamente regular los sistemas de IA más nuevos por temor a obstaculizar a las empresas emergentes europeas que intentan ponerse al día con empresas estadounidenses como Google y OpenAI. La ley agregó requisitos para que los fabricantes de los mayores modelos de IA divulguen información sobre cómo funcionan sus sistemas y evalúen el “riesgo sistémico”, dijo el Sr. Breton. Las nuevas regulaciones serán observadas de cerca a nivel mundial. Afectarán no solo a los grandes desarrolladores de IA como Google, Meta, Microsoft y OpenAI, sino a otras empresas que se espera que utilicen la tecnología en áreas como la educación, la atención médica y la banca. Los gobiernos también recurren más a la IA en la justicia penal y en la asignación de beneficios públicos. La aplicación aún no está clara. La Ley A.I. involucrará a reguladores de los 27 países y requerirá la contratación de nuevos expertos en un momento en que los presupuestos gubernamentales son limitados. Es probable que haya desafíos legales a medida que las empresas pongan a prueba las novedosas reglas en los tribunales previos. La legislación anterior de la UE, incluida la histórica ley de privacidad digital conocida como Reglamento General de Protección de Datos, ha sido criticada por su aplicación desigual. “La pericia regulatoria de la UE está en duda”, dijo Kris Shrishak, investigador principal del Consejo Irlandés de Libertades Civiles, quien asesoró a los legisladores europeos sobre la Ley A.I. “Sin una aplicación sólida, este acuerdo no tendrá ningún significado”.

LEAR  Inundaciones en el sur de Brasil dejan al menos 75 muertos en 7 días, con 103 personas desaparecidas.