التنظيم الأوروبي للذكاء الاصطناعي، في 3 مفاتيح
تناقلت اليوم وسائل الاعلام المحلية والدولية خبرا بعنوان، التنظيم الأوروبي للذكاء الاصطناعي، في 3 مفاتيح
، ونستعرض لحضراتكم اهم ما دار حول الموضوع وأهم ما ورد في تناوله علي موقعكم دريم نيوز.
القانون الأوروبي الذكاء الاصطناعي (AI) أقرب من أي وقت مضى. هذا الجمعة، 27 دولة الاتحاد الأوروبي وقد وافقوا على الاتفاق السياسي “التاريخي” الذي تم التوصل إليه في كانون الأول/ديسمبر، وهو خطوة حاسمة للترويج لما سيكون الأول أنظمة الأفقي من هذا تكنولوجيا في جميع أنحاء العالم.
كان ذلك في أبريل 2021 عندما المفوضية الأوروبية مقترح وضع لائحة من شأنها أن تملي سلسلة من المتطلبات لاستخدامات I ل وفقا للمخاطر الخاصة بك. وفي نهاية عام 2022، عندما بدا أن هناك إجماعًا، ظهر ظهور ChatGPT وأعاد المشرعين إلى مربع البداية. وبعد مرور ما يقرب من ثلاث سنوات على هذا الاقتراح الأول، وافقت الكتلة المجتمعية على نص تشريعي سيميز السنوات المقبلة.
A falta de que aun se detallen distintos flecos técnicos, aquí resumimos las tres claves que hay que saber sobre este ambicioso proyecto.
[–>
La iniciativa conocida como AI Act categoriza los sistemas de IA según los peligros que entrañen para la sociedad. Bruselas establece cuatro estadios distintos. Así, prohibirá los que supongan un “riesgo inaceptable”. Es el caso de la manipulación cognitivo-conductual, la clasificación de personas en base a su comportamiento o estatus socioeconómico, o los programas de identificación biométrica en tiempo real.
Un escalón por debajo están los usos de “alto riesgo”, permitidos, pero sujetos a estrictas obligaciones. Así, los sistemas que puedan afectar negativamente a la seguridad o a los derechos fundamentales —aplicados en ámbitos como la educación, los automóviles o en el control de fronteras— serán evaluados antes de su comercialización y también durante su ciclo de vida.
En el tercer peldaño están las IA con un riesgo de manipulación “limitado”. Se refiere a asistentes virtuales o a sistemas generativos como ChatGPT. Estos deberán cumplir con criterios de transparencia como informar a los usuarios de que están interactuando con una máquina o de que los contenidos que ha creado son sintéticos.
Por último están las que no tienen riesgo o uno “mínimo”. Son las IA presentes en la mayoría de servicios digitales que usamos, desde videojuegos a filtros de correo basura. Estas pueden usarse sin necesidad de cumplir con ninguna norma en especial.
[–>
2023 fue el año de la eclosión de la IA generativa, los modelos que se alimentan de grandes volúmenes de datos de internet para ser capaces de crear de forma automatizada todo tipo de textos, imágenes o audios. La regulación de estas aplicaciones fue también uno de los aspectos más discutidos entre los legisladores europeos. El texto acordado en diciembre establece que las compañías responsables de esos programas, como Microsoft o Google, deberán ser transparentes e indicar con qué datos los entrenan para evitar así posibles violaciones de los derechos de autor.
Francia es el país que más ha presionado para diluir esas obligaciones, pues considera que perjudicarán a ‘startups’ europeas de IA como la francesa Mistral AI. También lo han hecho empresas como OpenAI, creadora de ChatGPT. El acuerdo final no incluirá la rebaja solicitada por París y Silicon Valley.
[–>
La última clave es quizás la más polémica y crucial: la vigilancia biométrica. En junio, el Parlamento Europeo prohibió el uso de sistemas como el reconocimiento facial, considerado por las organizaciones en defensa de la privacidad como una amenaza a los derechos fundamentales. El acuerdo político sellado en diciembre veta la identificación en tiempo real, pero añade varias excepciones que benefician especialmente a policía y ejércitos. Así, las fuerzas y cuerpos de seguridad podrán usar esta tecnología en espacios públicos y con una autorización judicial previa para casos limitados como terrorismo, trata de personas o localizar a violadores.
للمزيد : تابعنا علي دريم نيوز، وللتواصل الاجتماعي تابعنا علي فيسبوك وتويتر .
مصدر المعلومات والصور: elperiodico