Az uniós AI-rendeletről érthetően: ismerjük meg az AI-rendszerek kockázatait!

Ebben a blogposztban röviden összefoglaljuk a 2024. évi európai uniós AI-rendelet legfontosabb rendelkezéseit a különböző AI-eszközök kockázati besorolásáról.

AI-rendszerek kockázatai

Főbb tanulságok

  • Az EU 2024‑es AI‑rendelete négy kockázati szintet definiál: elfogadhatatlan, magas, korlátozott és minimális kockázatú rendszerek.

  • Az elfogadhatatlan rendszerek tilosak, mert alapvető jogokat sérthetnek.

  • A magas kockázatú rendszerek (pl. egészségügy, pénzügy) szigorú megfelelőségi és dokumentációs követelményekkel járnak.

  • A korlátozott kockázatúaknál fontos az átláthatóság: jelezni kell, ha AI működik a háttérben.

  • A minimális kockázatú rendszerek esetében kevesebb a szabályozás, de az etikus működés továbbra is elvárás.

Az AI-rendszerek kockázatai: minimálistól az elfogadhatatlanig

Az Európai Unió 2024-ben elfogadott, a mesterséges intelligenciáról szóló törvényének célja, hogy szabályozza a mesterséges intelligenciát, ezáltal biztosítva annak etikus, biztonságos és megbízható voltát. Az AI-rendszereket kockázati szintek szerint kategorizálja: elfogadhatatlan, magas, korlátozott és minimális. Minden kategória konkrét szabályokat határoz meg, amelyek iránymutatást adnak a fejlesztőknek a megfelelőségre vonatkozóan.

1. Elfogadhatatlan kockázat (tiltott)

Ezek a mesterségesintelligencia-rendszerek teljes mértékben tiltottak, mivel alapvető jogokat sértenek vagy a közbiztonságot veszélyeztetik.

Ilyenek például a következők:

  • Kormányzati irányítású, az egyének viselkedését vagy megbízhatóságát értékelő társadalmi pontozási rendszerek
  • Olyan mesterségesintelligencia-rendszerek, amelyek manipulálják vagy kihasználják az egyéneket, különösen az olyan kiszolgáltatott csoportokat, mint a gyermekek
  • Olyan prediktív rendőrségi algoritmusok, amelyek előre jelzik a bűnözői magatartást
  • Az iskolákban vagy munkahelyeken használt érzelemfelismerő eszközök, amelyek a figyelmet értékelik
  • Valós idejű biometrikus megfigyelés a nyilvánosság előtt a bűnüldöző szervek által

Ha az Ön mesterségesintelligencia-rendszere ebbe a kategóriába tartozik, akkor azt az EU-ban nem lehet jogszerűen alkalmazni.

2. Magas kockázatú (szigorúan szabályozott)

Ezek a rendszerek jelentős hatást gyakorolnak az egészségre, a biztonságra vagy az alapvető jogokra. Széles körű megfelelést igényelnek.

Tipikus magas kockázatú mesterséges intelligencia rendszerek:

  • Egészségügy: Betegségdiagnosztika és kezelési ajánlások.
  • Autonóm járművek: Önvezető autók és a légi közlekedés mesterséges intelligencia rendszerei.
  • Oktatás és munkaerő-felvétel: Automatizált vizsgapontozás vagy álláspályázatok szűrése.
  • Alapvető szolgáltatásokhoz való hozzáférés: Mesterségesintelligencia-alapú hitelbírálat és juttatások odaítélése.
  • Rendészeti és igazságügyi szervek: Bizonyítékok értékelése vagy ítélethozatalt támogató rendszerek.
  • Biometrikus azonosítás ellenőrzött környezetben, például biztonsági ellenőrzéseknél.

Ha az Ön mesterségesintelligencia-rendszere magas kockázatú, akkor:

  • Megfelelőség-értékelésen (auditok/vizsgálatok) kell részt vennie.
  • Kockázatkezelési eljárásokat kell végrehajtania, beleértve az elfogultsági és biztonsági ellenőrzéseket.
  • Jó minőségű, elfogulatlan képzési adatokat kell használnia.
  • Részletes műszaki dokumentációt kell vezetnie az átláthatóság és az auditálás érdekében.
  • Emberi felügyeleti mechanizmusokat kell beépítenie a mesterséges intelligencia döntéseinek felügyelete vagy az azokba való beavatkozás érdekében.
  • Folyamatosan felügyelnie és naplóznia kell a mesterséges intelligencia műveleteit, és minden súlyos problémát azonnal jelentenie kell.

Ez a kategória jelentős felkészülést igényel, esetleg CE-tanúsításra vagy hatósági jóváhagyásra van szükség.

3. Korlátozott kockázat (átláthatóság szükséges)

Ezek a mesterségesintelligencia-rendszerek nem eredendően veszélyesek, de befolyásolhatják a felhasználó döntéseit vagy érzelmeit. Az átláthatóság kulcsfontosságú.

Gyakori példák:

  • Chatbotok és virtuális asszisztensek: Világosan jelezniük kell, hogy mesterséges intelligenciáról van szó („Szia, én egy mesterséges intelligencia asszisztens vagyok.”).
  • Mesterséges intelligencia által generált tartalom: Az AI által létrehozott képeket, videókat vagy szövegeket kifejezetten fel kell tüntetni a félretájékoztatás elkerülése érdekében.
  • Megszemélyesítő eszközök (hang- vagy arccserélő technológiák): A felhasználóknak tudniuk kell, hogy szintetikus médiával lépnek kapcsolatba.
  • Érzelemfelismerés nem kritikus alkalmazásokhoz, például interaktív múzeumi kiállításokhoz, feltéve, hogy a felhasználókat tájékoztatják.

Kötelezettségek korlátozott kockázatú AI-rendszerek esetén:

  • Az AI használatának egyértelmű közlése a felhasználókkal.
  • Az AI által generált média egyértelmű címkézése.
  • Szükség esetén a felhasználóknak könnyű hozzáférést kell biztosítani az emberi segítséghez.
  • Kerülje a manipulatív tervezést; helyezze előtérbe az etikai átláthatóságot.

Az átláthatóság elősegíti a bizalmat, fokozza a felhasználói elégedettséget és a megfelelőséget.

4. Minimális kockázat (nincs külön szabályozás)

A legtöbb mindennapi mesterségesintelligencia-rendszer ide tartozik, és a törvény nem ír elő további szabályozási követelményeket.

Ilyenek például a következők:

  • E-mail spamszűrők és bejövő e-mail üzenetek rendezése.
  • Játékokban alkalmazott mesterséges intelligencia, például a nem játékos karakterek viselkedése vagy a dinamikus nehézségi szint beállítása.
  • Termék- vagy szórakoztatóipari ajánló algoritmusok.
  • Termelékenységi eszközök, például nyelvtani ellenőrző programok, fordítóalkalmazások és időbeosztási asszisztensek.
  • Alapvető analitikai AI, amely súlyos következmények nélkül optimalizálja a weboldalakat vagy a működési hatékonyságot.

A minimális kockázatot jelentő mesterséges intelligenciák további megfelelőségi lépések nélkül is működhetnek, bár az általános adatvédelmi és etikai gyakorlatok továbbra is alkalmazandók.

Következtetések és megfelelőségi stratégia

Ha mesterségesintelligencia-eszközöket fejlesztő vagy alkalmazó, az uniós piacokat megcélzó vállalkozásunk van, létfontosságú, hogy megértsük ezeket a kockázati kategóriákat, és az alábbiak szerint járjunk el:

  • Elfogadhatatlan kockázat: Teljes mértékben kerülje ezeknek az eszközöknek a használatát.
  • Magas kockázat: Szigorú előkészítést és dokumentációt igényel.
  • Korlátozott kockázat: Az átláthatóság élvez elsőbbséget.
  • Minimális kockázat: Az általános etikai normák betartása elegendő.

A korai megfelelés előnyös helyzetbe hozza az AI-rendszereket fejlesztő és alkalmazó vállalkozásokat, mivel biztosítja, hogy a termékek biztonságosak, etikusak és a felhasználók megbíznak bennük. Az e kategóriák ismerete segít előre látni a szabályozási igényeket, és ezáltal egyszerűsíti a fejlesztést és a piacra lépést. Részletes iránymutatásokat az EUR-Lexen elérhető hivatalos uniós jogszabály (2024/1689/EU rendelet) vagy az Európai Bizottság összefoglalói tartalmaznak.

Az Ön cégénél milyen AI-eszközöket használnak? Milyen tapasztalatai vannak az OpenAI-n és a Microsoft eszközein kívül? Vannak olyanok, amelyek a magas kockázatúak közé sorolhatók az uniós AI-rendelet szerint?

Miért ne beszélgessünk erről egy kávé mellett?