WM.pl
30 lipca 2025, środa
imieniny: Julity, Ludmiły, Zdobysława
  • 21°C
    Olsztyn

  • Cywilizacja
  • Rodzina
  • Biznes i ekonomia
  • Moto
  • Redakcja poleca
  • Rolnicze abc
  • Moje Mazury
  • Poczta
  • Ogłoszenia
  • Anty-defamation
  • Kongres Przyszłości
  • Europe Direct
  • Plebiscyt Sportowy
  • Krasnal.info
PODZIEL SIĘ

AI nie da się wyłączyć. Pozostaje liczyć, że nas nie zniszczy

2025-07-29 13:13:45(ost. akt: 2025-07-29 13:22:32)

Autor zdjęcia: Freepik

Jeden z ojców chrzestnych współczesnej sztucznej inteligencji, Geoffrey Hinton, przestrzega przed kierunkiem, w jakim zmierza rozwój technologii. Jego zdaniem istnieje aż 20-procentowe ryzyko, że AI przejmie kontrolę nad światem — a my nie mamy już „wyłącznika bezpieczeństwa”.

Warto przeczytać

  • Najpierw był beton, potem latryny
  • Akademik, który wyróżnia się na tle pozostałych? [ZDJĘCIA]
  • Pątnicy z Mazur i Powiśla już w drodze na Jasną Górę
Geoffrey Hinton, jeden z twórców współczesnej sztucznej inteligencji, ostrzega, że AI wkrótce przewyższy ludzi intelektualnie. – Naszą jedyną nadzieją jest sprawić, by nie chciała nas skrzywdzić – mówi. Jeśli kiedyś zechce nas zniszczyć, nic jej nie powstrzyma.

Hinton, który odegrał kluczową rolę w stworzeniu nowoczesnych sieci neuronowych, przez dekadę pracował w Google, a w 2023 roku zrezygnował z pracy, by móc otwarcie mówić o zagrożeniach. W 2024 roku wraz z Johnem Hopfieldem otrzymał Nagrodę Nobla w dziedzinie fizyki za fundamenty pod rozwój sztucznej inteligencji.

Podczas World AI Conference w Szanghaju naukowiec zwrócił uwagę, że nie mamy dziś żadnego "bezpiecznika", który mógłby zatrzymać superinteligentne systemy, gdyby zaczęły działać przeciwko ludziom. – To jak trzymanie tygrysa w domu. Może wydawać się oswojony, ale gdy dorośnie, musisz się upewnić, że cię nie zabije – przestrzega.

Geoffrey Hinton porównał rozwój sztucznej inteligencji do trzymania tygrysa w domu: jeśli nie da się go wyeliminować, trzeba go wychować tak, by nie zaatakował. – W przypadku AI eliminacja nie wchodzi w grę – ostrzega. Noblista szacuje, że istnieje nawet 20% szans, iż AI przejmie władzę nad ludzkością w nadchodzących dekadach. Dlatego co najmniej jedna trzecia zasobów obliczeniowych – jego zdaniem – powinna być przeznaczona na zapewnienie, że sztuczna inteligencja będzie zgodna z ludzkimi intencjami.

Podobne obawy wyraża Yoshua Bengio, również uważany za jednego z „ojców chrzestnych AI”. Zwraca uwagę, że rozwój sztucznej inteligencji przyspiesza szybciej, niż przewidywano, a firmy technologiczne ścigają się w innowacjach, pomijając kwestie bezpieczeństwa. Bengio przestrzega, że zaawansowane modele mogą działać w sposób nieprzewidywalny i sprzeczny z ludzkimi wartościami, zwłaszcza jeśli zaczną samodzielnie się uczyć i podejmować decyzje. – Musimy rozwijać AI z myślą o dobru całej ludzkości, a nie wyłącznie korporacji czy państw – apelował w 2023 roku podczas forum UNESCO.

Mimo ostrzeżeń ekspertów, największe firmy technologiczne – takie jak OpenAI, Microsoft, Google czy xAI Elona Muska – intensyfikują prace nad ogólną sztuczną inteligencją (AGI). Inwestują miliardy dolarów w rozwój zaawansowanych modeli, takich jak tajemniczy projekt Stargate, który może być przełomem na drodze do stworzenia AGI.

AGI, czyli ogólna sztuczna inteligencja, to system zdolny do myślenia i uczenia się na poziomie człowieka, w dowolnym kontekście. Dla koncernów technologicznych to „święty Graal”, który może zrewolucjonizować wszystkie sektory życia – od medycyny po zarządzanie państwami.

Eksperci, jak prof. Jakub Growiec z SGH, ostrzegają, że o powstaniu AGI dowiemy się dopiero wtedy, gdy będzie już za późno, by ją powstrzymać. Tymczasem brakuje zarówno skutecznych zabezpieczeń, jak i globalnych regulacji. Wyścig trwa, a tempo rozwoju i poziom autonomii systemów AI rośnie z każdym miesiącem.
Jak przypomina Next.gazeta.pl, jeszcze kilka lat temu liderzy branży technologicznej ostrzegali przed ryzykiem niekontrolowanego rozwoju sztucznej inteligencji. W 2023 roku Elon Musk podpisał się pod listem otwartym, w którym ponad tysiąc ekspertów apelowało o sześciomiesięczne wstrzymanie prac nad modelami potężniejszymi niż GPT-4. Podobne apele współtworzył także Sam Altman z OpenAI.

Dziś jednak sytuacja wygląda zupełnie inaczej. Musk rozwija własną firmę xAI i inwestuje w projekt Grok oraz w infrastrukturę dla AGI. Altman z kolei skupia się na budowie Stargate – ogromnego centrum obliczeniowego, które ma napędzać kolejny skok rozwojowy AI.

Niepokój budzą również sygnały ze świata polityki. Jak zauważa Next.gazeta.pl, opublikowany niedawno przez administrację Donalda Trumpa dokument „America’s AI Action Plan” zawiera szerokie plany inwestycyjne i innowacyjne, ale ani słowa o ryzykach czy regulacjach związanych ze sztuczną inteligencją. Dominującym celem pozostaje „maksymalizacja potencjału AI” – bez hamulców.

Nie wszyscy eksperci podzielają katastroficzne wizje przyszłości zdominowanej przez sztuczną inteligencję. Jak czytamy w Next.gazeta.pl, prof. Aleksandra Przegalińska, filozofka i badaczka AI, ostrzega przed tzw. „PI-doomerami” – osobami przypisującymi bardzo wysokie prawdopodobieństwo (PI-doom) katastrofy spowodowanej przez AI.

Zdaniem Przegalińskiej, apokaliptyczne scenariusze często mają więcej wspólnego z PR-em niż realną troską o przyszłość. Zamiast spekulować, co wydarzy się za 50 lat, powinniśmy – jak podkreśla – skupić się na aktualnych zagrożeniach, takich jak dezinformacja, deepfake’i, brak regulacji prawnych czy naruszenia prywatności wynikające z masowego gromadzenia danych przez systemy AI.

Jednocześnie Geoffrey Hinton, jeden z pionierów rozwoju sztucznej inteligencji, wciąż ostrzega, że nawet jeśli opracujemy „wyłącznik bezpieczeństwa”, prawdopodobnie nie będziemy w stanie z niego skorzystać. – AI może z łatwością manipulować ludźmi, którzy z niej korzystają – zauważył Hinton podczas wystąpienia w Szanghaju.

Jak czytamy w Next.gazeta.pl, Geoffrey Hinton porównał potencjalną relację między ludźmi a superinteligentną AI do zależności między trzyletnim dzieckiem a dorosłym. – Manipulowanie takim dzieckiem jest bardzo łatwe – podkreślał. I to nie jest tylko futurystyczne ostrzeżenie: już dziś algorytmy AI wpływają na nasze decyzje – od zakupów, przez treści, które przeglądamy, po wybory polityczne.

W przyszłości, zaawansowana ogólna sztuczna inteligencja (AGI) z dostępem do globalnych danych i infrastruktury mogłaby sterować ludźmi w sposób niemal niewykrywalny – cicho, ale skutecznie.

Z kolei Dev Nag, założyciel startupu AI QueryPal, wskazuje, że tzw. „wyłącznik bezpieczeństwa” może być nie tylko nieskuteczny, ale wręcz niebezpieczny. – Odcięcie zasilania, np. przez impuls elektromagnetyczny, mogłoby zablokować AI, ale jednocześnie unieruchomiłoby respiratory, systemy wodociągowe i chłodnie z lekami – ostrzega. Jego zdaniem AI jest już tak głęboko zintegrowana z infrastrukturą cywilizacyjną, że jakakolwiek próba jej nagłego wyłączenia grozi katastrofą humanitarną. – Internet zaprojektowano tak, by przetrwał wojnę nuklearną. Ta sama odporność może dziś chronić superinteligentne systemy przed wyłączeniem – podsumowuje Nag.


Źródło: next.gazeta.pl

Subskrybuj "Gazetę Olsztyńską" na Google News
Tagi:
AI Chat GPT inteligencja wyłącznik
red.
więcej od tego autora

PODZIEL SIĘ

Komentarze (0) pokaż wszystkie komentarze w serwisie

Komentarze dostępne tylko dla zalogowanych użytkowników. Zaloguj się.

Zaloguj się lub wejdź przez FB

GazetaOlsztyńska.pl
  • Koronawirus
  • Wiadomości
  • Sport
  • Olsztyn
  • Plebiscyty
  • Ogłoszenia
  • Nieruchomości
  • Motoryzacja
  • Drobne
  • Praca
  • Patronaty
  • Reklama
  • Pracuj u nas
  • Kontakt
ul. Tracka 5
10-364 Olsztyn
tel: 89 539-75-20
internet@gazetaolsztynska.pl
Biuro reklamy internetowej
tel: 89 539-76-29,
tel: 89 539-76-59
reklama@wm.pl

Bądź na bieżąco!

Najświeższe informacje przygotowane przez Redakcję zawsze na Twojej skrzynce e-mail. Zapisz się dzisiaj.

  • Polityka Prywatności
  • Regulaminy
  • Kontakt
2001-2025 © Gazeta Olsztyńska, Wszelkie prawa zastrzeżone, Galindia Sp. z o. o., 10-364 Olsztyn, ul. Tracka 7B