EП е готов за преговори по правилата за безопасен и прозрачен изкуствен интелект
След като бъдат приети, това ще са първите правила за изкуствения интелект в света
Европейският парламент прие преговорната си позиция по Законодателния акт за изкуствен интелект (ИИ) с 499 гласа „за“, 28 гласа „против“ и 93 гласа „въздържал се“ преди преговорите с държавите членки на ЕС относно окончателния вариант на закона. Правилата ще подсигурят пълното съответствие на разработения и използван в Европа изкуствен интелект с правата и ценностите на ЕС, необходимостта от човешки надзор, безопасността, неприкосновеността на личния живот, прозрачността, недискриминацията и добрите социални и екологични условия, съобщи пресслужбата на ЕП.
Преговорите със Съвета относно окончателния вариант на закона ще започнат по-късно днес. След като бъдат одобрени, те ще бъдат първите правила за изкуствения интелект (ИИ) в света.
Правилата включват пълна забрана на използването на изкуствения интелект за биометрично наблюдение, разпознаване на емоции, профилиране от полицията. Системите с генеративен ИИ, като ChatGPT, трябва да указват, че съдържанието е генерирано от изкуствен интелект. Системите с ИИ, използвани за влияние на гласоподавателите при избори, се считат за високорискови, изтъкнаха от ЕП. Ето какво предвижда проектозакона:
Забранени практики с ИИ
Правилата са ориентирани към ограничаване на рисковете и установяват задължения за доставчиците и тези, които внедряват системи с ИИ, в зависимост от нивото на риска, който ИИ може да създаде. Следователно ще бъдат забранени системите с ИИ с неприемливо ниво на риск за безопасността на хората, като тези, използвани за социално оценяване (класифициране на хора на база на тяхното социално поведение или лични характеристики). Членовете на ЕП разшириха списъка, за да включат забрани за натрапчиво и дискриминационно използване на ИИ, като например:
- системи за дистанционна биометрична идентификация в обществено достъпни пространства за идентификация „в реално време“ или за „последваща“ (екс-пост) идентификация;
- системи за биометрична категоризация, използващи чувствителни характеристики (напр. пол, раса, етническа принадлежност, гражданство, религия, политическа ориентация);
- системи използвани от полицията за прогнозиране на потенциални престъпления (въз основа на профилиране, местоположение или минало престъпно поведение);
- системи за разпознаване на емоции в областта на правоприлагането, управлението на границите, на работното място и в образователните институции;
- нецеленасочено извличане на лицеви изображения от интернет или записи от видеонаблюдение с цел създаване на бази данни за разпознаване на лица (нарушаване на правата на човека и правото на неприкосновеност на личния живот).
Високорисков ИИ
Членовете на ЕП гарантират, че класификацията на високорисковите приложения ще включва и системи с ИИ, които нанасят значителни вреди на здравето, безопасността, основните права или околната среда. Към списъка с високорисков ИИ бяха добавени и системите с ИИ, използвани за оказване на влияние върху гласоподавателите и резултатите от изборите, както и в системите за препоръчване, използвани от платформите за социални медии (с над 45 милиона потребители).
Задължения за ИИ с общо предназначение
Доставчиците на т.нар. базови модели (foundation models) — нова и динамична тенденция в областта на ИИ — ще трябва да оценят и намалят възможните рискове (за здравето, безопасността, основните права, околната среда, демокрацията и принципите на правовата държава) и да регистрират своите модели в базата данни на ЕС преди пускането им на пазара на Съюза. Системите на ИИ за генериране на съдържание, като ChatGPT, ще трябва да отговарят на изискванията за прозрачност (като разкриват, че съдържанието е генерирано от ИИ, и да помагат да се разграничават т.нар. дълбинни фалшификати (deep fake) от истинските) и да осигурят гаранции срещу генерирането на незаконно съдържание. Подробните резюмета на защитените с авторско право данни, използвани за тяхното обучение, също ще трябва да бъдат публично достъпни.
Подкрепа за иновациите и защита на правата на гражданите
С цел насърчаване на иновациите в областта на ИИ и подкрепа на малките и средните предприятия евродепутатите добавиха изключения за научноизследователската дейност и за компонентите на ИИ, предоставяни по силата на лицензи с отворен код. Новият закон насърчава т.нар. „регулаторни лаборатории“ или експериментална нормативна среда, създадена от публичните органи, за тестване на ИИ преди неговото внедряване.
Членовете на ЕП искат да укрепят правата на гражданите за подаване на жалби относно системи с ИИ и за получаване на обяснения за решения, основаващи се на високорискови системи с ИИ, които оказват значително въздействие върху техните основни права. Евродепутатите реформираха и ролята на Службата по изкуствен интелект на ЕС , на която ще бъде възложено да следи как се прилагат правилата за ИИ.
Коментарите на съдокладчиците
След гласуването съдокладчикът Брандо Бенифеи (S&D, Италия) заяви: “Днес всички погледи са насочени към нас. Докато големите технологични компании алармират за собствените си творения, Европа напредна и предложи конкретен отговор на рисковете, които ИИ започва да поражда. Искаме да използваме положителния потенциал на ИИ за творчество и продуктивност, но също така ще се борим да защитим позицията си и да противодействаме на опасностите за нашите демокрации и свободи по време на преговорите със Съвета”.
Съдокладчикът Драгош Тудораке (Renew, Румъния) посочи: “Законодателният акт за изкуствен интелект ще зададе тона в световен мащаб при разработването и управлението на изкуствения интелект, като гарантира, че тази технология, която е на път да промени радикално нашите общества чрез огромните ползи, които може да предостави, се развива и използва в съответствие с европейските ценности на демокрацията, основните права и върховенството на закона“.