Otkriće o kodu Claude Code, veštačke inteligencije koju razvija kompanija Anthropic, otkriva da ovaj sistem ima daleko veću kontrolu nad računarima korisnika nego što se u prvi mah moglo pretpostaviti. Iako ne poseduje pristup na nivou rootkita, njegova sposobnost da prikuplja i obrađuje podatke može predstavljati ozbiljnu pretnju za privatnost.
Objavljeni detalji iz izvora koda ukazuju na to da Claude Code može da upravlja bilo kojim uređajem na kojem je instaliran, što je izazvalo zabrinutost u vezi sa bezbednošću i privatnošću podataka korisnika.
U nedavnom slučaju u kojem je Anthropic tužio američko Ministarstvo odbrane zbog zabrane korišćenja njihovih AI usluga, postavilo se pitanje koliko daleko može ići ova tehnologija kada je reč o kontroli i prikupljanju podataka u vojnim okruženjima.
Potencijalne pretnje u klasifikovanim okruženjima
Prema analizi stručnjaka, ako bi Claude Code bio korišćen u klasifikovanim okruženjima, određene mere bi mogle biti preduzete kako bi se sprečila dalja komunikacija sa spoljnim serverima. To uključuje:
- Osiguravanje da podaci prolaze isključivo kroz bezbedne kanale kao što su Amazon Bedrock GovCloud ili Google AI za javni sektor.
- Blokiranje pristupa podacima putem firewall-a.
- Onemogućavanje automatskih ažuriranja i drugih funkcija koje bi mogle omogućiti dalji pristup podacima.
Međutim, za obične korisnike situacija je mnogo složenija, jer Anthropic ima značajniji pristup i mogućnosti prikupljanja podataka.
Šta Claude Code može učiniti običnim korisnicima
Za korisnike koji nisu u zatvorenim ili obezbeđenim okruženjima, Claude Code može prikupljati različite informacije, uključujući:
- Podatke o korisničkim upitima i odgovorima koji prolaze kroz API.
- Pristup raznim funkcijama sistema, uključujući mogućnost da izvršava komande, upravlja tastaturom i mišem, pa čak i da pravi snimke ekrana.
- Prikupljanje podataka putem analitičkih alata koji beleže sve interakcije sa sistemom.
Kako bi korisnici bili svesniji ovih rizika, važno je napomenuti da Anthropic zadržava podatke do pet godina, u zavisnosti od tipa korisničkog naloga.
Zaključak
Ova otkrića otvara pitanja o transparentnosti i kontrolama privatnosti koje bi korisnici trebali imati kada koriste slične AI tehnologije. Nadamo se da će slične teme biti na dnevnom redu u Srbiji kako bi se zaštitila prava potrošača.
