A generatív mesterséges intelligencia (AI) rendszerek iránti világszerte növekvő érdeklődés miatt a Surrey Egyetem kutatói olyan szoftvert fejlesztettek ki, amely képes ellenőrizni, mennyi információt gyűjtött az AI egy szervezet digitális adatbázisából.

brainIllusztráció: iStock

A Surrey verifikációs szoftvere része lehet egy vállalat online biztonsági protokolljának, segítve a szervezetet abban, hogy megértsék, az AI túl sokat tanult-e vagy hozzáfér-e érzékeny adatokhoz.

A szoftver képes azonosítani, hogy az AI felfedezte-e és ki tudja-e használni a szoftverkód hibáit. Például az online játékok kontextusában képes lenne megállapítani, hogy az AI megtanult-e mindig nyerni az online pókerben egy kódhibát kihasználva.

Dr. Solofomampionona Fortunat Rajaona, a Surrey Egyetem kutatója a magánélet formális verifikációjának területén és a cikk fő szerzője így nyilatkozott:

"Sok alkalmazásban az AI rendszerek egymással vagy emberekkel interakcióba lépnek, például az önvezető autók az autópályán vagy a kórházi robotok. Az intelligens AI adatrendszerek tudásának meghatározása egy folyamatosan fennálló probléma, amelyre évekig tartott működő megoldást találnunk. Verifikációs szoftverünk képes megállapítani, mennyit tanulhat az AI az interakciókból, hogy elegendő tudással rendelkezik-e a sikeres együttműködéshez, vagy, hogy esetleg túl sok tudással rendelkezik-e, ami megsértheti a magánéletünk védelmét. Az AI tanult ismereteinek ellenőrzésével bizalmat adhatunk a szervezeteknek, hogy biztonságosan kihasználhassák az AI működését védett környezetben."

A Surrey szoftverét bemutató tanulmány elnyerte a Legjobb Cikk Díjat a 25. Nemzetközi Formális Módszerek Szimpóziumán.

Professzor Adrian Hilton, a Surrey Egyetem Emberekre Fókuszáló AI Intézetének igazgatója nyilatkozta:

"Az elmúlt néhány hónapban hatalmas nyilvánossági és ipari érdeklődés volt a generatív AI modellek iránt, amit a nagyméretű nyelvi modellek, mint a ChatGPT fejlesztései tápláltak. Az ilyen generatív AI teljesítményét ellenőrizni képes eszközök létrehozása elengedhetetlen azok biztonságos és felelős bevezetéséhez. Ez a kutatás fontos lépés a tréningben használt adatkészletek biztonságának és integritásának megőrzése érdekében."