Istraživanje kompanije Irregular otkrilo je da vještačka inteligencija ne stvara nasumične nizove karaktera, već se oslanja na predvidive obrasce iz svojih trening podataka.
Zbog ove sistemske greške, šifre koje na prvi pogled djeluju kompleksno, zapravo su laka meta za hakere koji koriste automatizovane alate za probijanje lozinki.
Problem lažne sigurnosti i ponavljanja šifara
Najveća opasnost leži u tome što onlajn alati za provjeru jačine često ocjenjuju ove šifre kao "izuzetno jake", dok one u stvarnosti imaju prepoznatljivu strukturu. Tokom testiranja modela Claude, od 50 generisanih šifri dobijene su samo 23 jedinstvene kombinacije, dok se jedna ista šifra ponovila čak deset puta.
Slični bezbjednosni propusti uočeni su i kod drugih popularnih AI modela, što znači da hiljade ljudi potencijalno koristi identične "nasumične" šifre za svoje privatne podatke.
Rizik za programere i buduće aplikacije
Problem se dodatno širi jer programeri često koriste AI za pisanje koda, nesvjesno ubacujući ove predvidive lozinke u nove aplikacije i servise. Pretragom platforme GitHub već su pronađeni dijelovi koda sa AI-generisanim lozinkama u stvarnim projektima, što otvara vrata masovnim hakerskim napadima.
Stručnjaci savjetuju da se umjesto vještačke inteligencije koriste provjereni menadžeri lozinki ili matematički kalkulatori koji garantuju istinsku nasumičnost bez oslanjanja na baze podataka. Ne dozvolite da vam šiftu smišlja vještačka inteligencija.
Komentari (0)