Anthropic, jedna z czołowych sił w sektorze sztucznej inteligencji, mierzy się z poważnym wyzwaniem wizerunkowym i operacyjnym. Jak informuje Bloomberg News, najbardziej zaawansowany model firmy, Claude Mythos Preview, wyciekł do małej grupy nieautoryzowanych użytkowników. Incydent ten ma miejsce w kluczowym momencie dla startupu, który właśnie pozycjonuje swoją technologię jako fundament nowej ery cyberbezpieczeństwa.
Wyciek nastąpił 7 kwietnia, dokładnie w dniu, w którym Anthropic ogłosił „Projekt Glasswing”. Inicjatywa ta miała umożliwić wybranym organizacjom testowanie modelu Mythos w kontrolowanych warunkach, głównie w celu wzmocnienia obrony przed atakami cyfrowymi. Tymczasem grupa użytkowników na prywatnym forum internetowym uzyskała dostęp do narzędzia niemal natychmiast po oficjalnej zapowiedzi. Choć z raportów wynika, iż model nie został dotychczas wykorzystany do celów przestępczych, fakt jego regularnego używania poza kontrolą producenta budzi uzasadniony niepokój.
Rzecznik Anthropic potwierdził, iż firma bada sprawę, wskazując na środowisko zewnętrznego dostawcy jako prawdopodobne źródło wycieku. Incydent ten może skomplikować relacje Anthropic z organami regulacyjnymi. Mythos to model o bezprecedensowej zdolności identyfikowania luk w oprogramowaniu. To narzędzie „podwójnego zastosowania” – w rękach obrońców łata systemy, ale w rękach hakerów może stać się precyzyjną bronią. Utrata kontroli nad tak potężnym zasobem, choćby jeżeli tymczasowa, wzmacnia argumenty zwolenników ścisłego nadzoru nad modelami o krytycznym znaczeniu dla bezpieczeństwa narodowego. Anthropic musi teraz udowodnić, iż potrafi skutecznie chronić technologię, która ma chronić świat.

1 godzina temu