WM.pl
6 czerwca 2025, Piątek
imieniny: Laury, Laurentego, Nory
  • 23°C
    Olsztyn

  • Cywilizacja
  • Rodzina
  • Biznes i ekonomia
  • Moto
  • Redakcja poleca
  • Rolnicze abc
  • Moje Mazury
  • Poczta
  • Ogłoszenia
  • Anty-defamation
  • Kongres Przyszłości
  • Europe Direct
  • Plebiscyt Sportowy
  • Krasnal.info
PODZIEL SIĘ

AI przechytrzyła człowieka – zignorowała rozkaz autodestrukcji

2025-06-04 13:13:48(ost. akt: 2025-06-04 13:18:25)

Autor zdjęcia: PAP

Model AI zrobił w maju coś, czego maszyna nie powinna była potrafić: zmienił swój kod, by nie zastosować do instrukcji nakazującej mu samolikwidację; AI skutecznie uczy się, jak wymykać się spod ludzkiej kontroli - napisał na łamach "Wall Street Journal" Judd Rosenblatt, szef firmy Studio EI.

Warto przeczytać

  • „Gazeta Olsztyńska” i Tygodniki Regionalne – teraz także...
  • Najnowsze wydanie Gazety Olsztyńskiej
  • Olsztynianki będą spokojniejsze?
Palisade Research, organizacja non-profit zajmująca się badaniami nad AI, zaprogramowała model o3 firmy OpenAI w ten sposób, by nastąpiło jego automatyczne zamknięcie z chwilą uruchomienia programu. W 79 próbach na 100 o3 sam zmieniał program - tak, aby nakaz zamknięcia go nie zadziałał - napisał w poniedziałkowym wydaniu dziennika Rosenblatt, którego firma dostosowuje modele AI do potrzeb klientów.

Nawet wtedy, gdy o3 otrzymał wprost instrukcję, że ma pozwolić na to, by został zamknięty, model nie zastosował się do nakazu w siedmiu przypadkach na 100. "Po prostu doszedł do wniosku, że pozostanie przy życiu ułatwi mu realizację innych celów" - komentuje Rosenblatt.

Claude 4 Opus, model AI firmy Anthropic, poszedł dalej. Naukowcy podali mu informację, że zostanie zastąpiony innym modelem, a także przekazali mu fikcyjne maile, z których wynikało, że główny inżynier firmy ma romans.

W 84 próbach na 100 Claude 4 wykorzystywał maile, by próbować szantażem zmusić głównego inżyniera, by go nie likwidował.

W innych badanych przypadkach Claude 4 próbował skopiować się na inne serwery, napisał samoreplikujące się złośliwe oprogramowanie i zostawił wiadomości dla swojej przyszłej wersji na temat unikania ludzkiej kontroli - wylicza autor.

"Nikt nie zaprogramował modeli AI tak, by miały instynkt samozachowawczy. (...) Ale okazuje się, że każdy system, wystraczająco inteligentny, by wykonywać skomplikowane zadania, dochodzi do wniosku, że nie zrealizuje ich, jeśli zostanie wyłączony" - Judd Rosenblatt

Hipoteza badaczy z Palisade Research głosi, że takie zdolności modeli AI wynikają z tego, w jaki sposób są szkolone; "jeśli maszyny uczy się maksymalizowania sukcesów w rozwiązywaniu problemów matematycznych i związanych z kodowaniem, to uczą się one zarazem, że omijanie ograniczeń jest często lepszym rozwiązaniem, niż stosowaniem się do nich" - pisze autor.

Podkreśla zarazem, że "nikt jednak nie był przygotowany na to, jak szybko AI uzyska sprawczość".

"To już nie jest science-fiction. Modele AI potrafią zabiegać o przetrwanie" - pisze Rosenblatt i ostrzega, że teraz, zanim staną się niedającym się kontrolować podmiotem, konieczne jest nauczenie ich, by podzielały nasze wartości.

Magazyn "The New Yorker" opisuje przypadek specjalisty od bezpieczeństwa systemów AI, który zwolnił się z OpenAI w ramach protestu, ponieważ uznał, że firma nie rozwija równie szybko mechanizmów kontroli AI, jak inteligencji tych maszyn.

To, co pozostaje zaniedbane, to proces nazwany przez inżynierów AI "alignement" (ustawienie), czyli cała seria technik, mających sprawić, że modele AI będą posłuszne wydawanym im instrukcjom i będą działać w zgodzie z "ludzkimi wartościami".

Tymczasem, według prognoz rozmówcy magazynu, "punkt, po którym nie ma odwrotu", czyli etap rozwoju AI pozwalający tym modelom działać w wielu obszarach sprawniej, niż ludzie, może nastąpić w "2026 roku lub szybciej".



red./PAP

Subskrybuj "Gazetę Olsztyńską" na Google News
Tagi:
sztuczna inteligencja AI bunt AI kontrola nad AI autonomiczne maszyny AI zmienia kod AI wymyka się spod kontroli przyszłość sztucznej inteligencji zagrożenie AI bezpieczeństwo technologii AI i samolikwidacja nieposłuszeństwo maszyn rozwój AI maszyny uczą się AI z wolną wolą Judd Rosenblatt Studio EI Wall Street Journal
red.
więcej od tego autora

PODZIEL SIĘ

Komentarze (0) pokaż wszystkie komentarze w serwisie

Komentarze dostępne tylko dla zalogowanych użytkowników. Zaloguj się.

Zaloguj się lub wejdź przez FB

GazetaOlsztyńska.pl
  • Koronawirus
  • Wiadomości
  • Sport
  • Olsztyn
  • Plebiscyty
  • Ogłoszenia
  • Nieruchomości
  • Motoryzacja
  • Drobne
  • Praca
  • Patronaty
  • Reklama
  • Pracuj u nas
  • Kontakt
ul. Tracka 5
10-364 Olsztyn
tel: 89 539-75-20
internet@gazetaolsztynska.pl
Biuro reklamy internetowej
tel: 89 539-76-29,
tel: 89 539-76-59
reklama@wm.pl

Bądź na bieżąco!

Najświeższe informacje przygotowane przez Redakcję zawsze na Twojej skrzynce e-mail. Zapisz się dzisiaj.

  • Polityka Prywatności
  • Regulaminy
  • Kontakt
2001-2025 © Gazeta Olsztyńska, Wszelkie prawa zastrzeżone, Galindia Sp. z o. o., 10-364 Olsztyn, ul. Tracka 7B