13 March 2024. Following EU Parliament's Plenary Session vote (523/46/49), AI Act will undergo final linguistic approval by lawyer-linguists in April, a step considered a formality, before being published in the Official Journal. It will then come into effect after 21 days, with prohibited systems provisions in force six months later, by the end of 2024. Other provisions will come in over the next 2-3 years.
The AI Act imposes significant penalties for non-compliance with the prohibited systems provisions, with fines up to €35 million or 7% of global turnover. What's the message? Make sure you aren't providing or using prohibited AI systems in the EU by the end of the year.
The following will be prohibited AI systems under the AI Act by year end:
Manipulative and deceptive practices. AI systems that use subliminal techniques to materially distort a person’s decision-making capacity, leading to significant harm, are banned. This includes systems that manipulate behaviour or decisions in a way that the individual would not have otherwise made.
Exploitation of vulnerabilities. The Act prohibits AI systems that target individuals or groups based on age, disability, or socio-economic status to distort behaviour in harmful ways.
Biometric categorisation. It outlaws AI systems that categorise individuals based on biometric data to infer sensitive information like race, political opinions, or sexual orientation. This prohibition does not cover any labelling or filtering of lawfully acquired biometric datasets, such as images. There are also exceptions for law enforcement.
Social scoring. AI systems designed to evaluate individuals or groups over time based on their social behaviour or predicted personal characteristics, leading to detrimental treatment, are banned.
Real-time biometric identification. The use of real-time remote biometric identification systems in publicly accessible spaces for law enforcement is heavily restricted, with allowances only under narrowly defined circumstances that require judicial or independent administrative approval.
Risk assessment in criminal offences. The Act forbids AI systems that assess the risk of individuals committing criminal offences based solely on profiling, except when supporting human assessment already based on factual evidence.
Facial recognition databases. AI systems that create or expand facial recognition databases through untargeted scraping of images are prohibited.
Emotion inference in workplaces and educational institutions. The use of AI to infer emotions in sensitive environments like workplaces and schools is banned, barring exceptions for medical or safety reasons.
The Act mandates prior authorisation for the use of 'real-time' remote biometric identification systems by law enforcement.
Maj 2024. AI Act stupa na snagu (usvojen u EU 13.03.2024.) kao prvi pravni akt u svetu koji na obavezujući način reguliše oblast veštačke inteligencije, a sa ciljem da obezbedi napredak društva, i istovremeno poštovanje prava i osiguravanje bezbednosti pojedinca.
Preambula
Sadržaj: I Opšte odredbe; II Zabranjene AI prakse; III AI sistemi visokog rizika; IV Obaveze transparentnosti za provajdere AI sistema; VIIIa AI modeli opšte namene; V Mere u cilju podrške inovacijama; VI Upravljanje; VII Baza podataka EU za visokorizične sisteme AI iz aneksa III; VIII Post-tržišni monitoring, deljenje informacija i nadzor tržišta; IX Kodeks ponašanja; X Poverljivost i kazne; XI Delegiranje ovlašćenja i postupanje organa; XII Završne odredbe
Aneksi
Nakon zauzetog stava o etičkim principima kojima se tehnologija mora voditi, AI Act pokreće fazu regulacije, pretvaranja etičkih principa u načela i stvaranje konkretnih pravila.
AI Act temelji digitalni prostor AI ekosistema na tri oslonca:
inovativni razvoj
transparentnost i odgovornost
sistem procene nivoa rizika po društvo i prava pojedinca
Akt klasifikuje aplikacije VI na osnovu procenjenog nivoa rizika, a zatim po funkcionalnosti svrstava različite pojavne oblike četiri kategorije:
Neprihvatljiv rizik – zabranjene su prakse VI koje se smatraju previše štetnima da bi bile dozvoljene, poput manipulacije ponašanjem ljudi na njihovu štetu (prevarne tehnike za iskrivljavanje ponašanja i ometanje informisanog donošenja odluka) ili poput sistema koji nepravedno kategoriziraju pojedince (social scoring), pa i softvera za prepoznavanje lica u stvarnom vremenu na javnim mestima.
Visok rizik – deli se na dve podkategorije: sistemi sigurnosnih komponenti (medicinski uređaji) i sistemi za osetljivu upotrebu (biometrija, kritična infrastruktura, obrazovanje, zapošljavanje, osnovne usluge, sprovođenje zakona, migracije, pravosuđe). Kategorija obuhvata sisteme VI koji bi mogli značajno uticati na sigurnost ljudi ili na fundamentalna prava. Neophodna je stroga usklađenost i procena sigurnosti ovih sistema, nadgledanje, upravljanje podacima, čuvanje zapisa, sajber-bezbednost, sistem prijavljivanja ozbiljnijih incidenata...
Ograničeni rizik – sistemi VI koji direktno komuniciraju s korisnicima, poput chatbota. – Neophodno je da su transparentne u pogledu toga da njima upravlja VI kako bi korisnici bili svesni da ne komuniciraju s ljudima.
Minimalni rizik – većina aplikacija VI spada u ovu kategoriju, gde se sloboda inovacija održava uz minimalnu regulatornu intervenciju. To su sistemi koji predstavljaju zanemariv rizik za prava ili sigurnost pojedinaca. Koriste se uz minimalan nadzor.
Neophodno je da organizacije i kompanije koje razvijaju i upotrebljavaju VI sisteme i softver, u potpunosti operacionalizuju odgovornu VI (Responsible AI) koja podrazumeva preduzimanje planiranih radnji dizajniranja, primene i upotrebe VI za stvaranje vrednosti i izgradnju poverenja štiteći korisnike, sugrađane, društvo, od potencijalnih rizika VI.
Fair Artificial Intelligence. Neophodno je da kompanije koje razvijaju sisteme zasnovane na VI primenjuju FairAI (MIM5 Minimal Interoperability Mechanisms 5) kao i sve tehničke mere sajberbezbednosti NIS2 direktive o sajber-bezbednosti.
Council of Europe's AI Convention (2023–2024) (Convention on Artificial Intelligence, Human Rights, Democracy and the Rule of Law) aims to protect human rights against the harms of AI. The AI Convention may become the first legally-binding international treaty on AI.