Oceń
Sztuczna inteligencja rozwija się w zawrotnym tempie. Czy finalnie AI stanie się zagrożeniem dla człowieka? Prof. Andrzej Dragan - fizyk teoretyk, wykładowca na Wydziale Fizyki Uniwersytetu Warszawskiego – nie ma wątpliwości jak się skończy rozwój sztucznej inteligencji. Niestety, nakreślił czarny scenariusz rodem z filmu „Terminator”. Podobnego zdania są znani naukowcy oraz Elon Musk.
Sztuczna inteligencja zagrożeniem dla ludzi? Prof. Andrzej Dragan wyjaśnia
Sztuczna inteligencja spowoduje apokalipsę i anihilację cywilizacji człowieka? W literaturze i filmach science fiction to zazwyczaj algorytm wrogi ludzkości. „Terminator”, „Obcy: Ósmy pasażer Nostromo”, „2001: Odyseja Kosmiczna”, „Łowca Androidów”, „Ex Machina” – można wymieniać bez końca. Czy naprawdę czeka nas zagłada? Na razie algorytmy wydają się dla nas wybawieniem, m.in. dając nadzieję na przełom w medycynie i leczenie raka. Prof. Andrzej Dragan w programie „Didaskalia” w Wirtualnej Polsce przedstawił mrożącą krew w żyłach prognozę: „Nie potrafię sobie wyobrazić takiego wariantu, w którym sztuczna inteligencja nie byłaby dla nas zagrożeniem”.
Słynny fizyk teoretyk, wykładowca na Wydziale Fizyki Uniwersytetu Warszawskiego, zwrócił uwagę jak błyskawicznie ChatGPT rozwiązuje zagadki logiczne. Jest zdania, że „hodujemy sobie gatunek, który będzie efektywniejszy od nas w jedynej rzeczy, która dała nam dominację na Ziemi, czyli w intelekcie”. I okazuje się, że w tych obawach prog. Dragan nie jest osamotniony.
Sztuczna inteligencja niebezpieczna? Elon Musk ujawnia przyszłość
Jak podaje Radio ZET, znane japońskie firmy ostrzegają przed rozwojem sztucznej inteligencji. Japońskie przedsiębiorstwa telekomunikacyjne Nippon Telegraph and Telephone (NTT) oraz medialne Yomiuri Shimbun wydały manifest wzywający do stworzenia przepisów prawnych przewidujących odpowiednią regulację generatywnej AI. Domagają się ograniczenia i rządowych regulacji rozwoju generatywnej sztucznej inteligencji (GenAI, wykorzystywanej np. w programie ChatGPT). Co więcej, zdaniem ekspertów z Towarzystwa Maxa Plancka w Europie, „niebezpieczeństwo jest tuż za rogiem”.
Wielu naukowców apeluje, by stworzyć „algorytm powstrzymujący”. Ruszyły już takie inicjatywy jak m.in. Stop Killer Robots, którą wspiera Elon Musk.
Elon Musk inwestuje w rozwój sztucznej inteligencji, ale się jej obawia. Uważa, że AI w przyszłości zmieni się w „nieśmiertelnego dyktatora”, który zniewoli ludzkość. Zapowiedział, że sztuczna inteligencja w ciągu maksymalnie dwóch lat będzie „mądrzejsza od najmądrzejszego człowieka”.
Już w 2017 roku Elon Musk na Twitterze stwierdził, iż sztuczna inteligencja oraz autonomiczne maszyny stanowią dla ludzkości większe zagrożenie, niż Korea Północna oraz pociski nuklearne. Porównał nawet rozwój sztucznej inteligencji do „przywoływania diabła”, co grozi przyspieszeniem wybuchu III wojny światowej. Nie jest tajemnicą, że Elon Musk kilka lat temu zainwestował miliony dolarów w projekt Future Life Institute (FLI), który na wzór Open AI, zajmuje się potencjalnymi zagrożeniami związanymi z rozwojem sztucznej inteligencji.
Quiz: Trudne słowa w języku polskim. Test wiedzy, którego boją się nauczyciele
Stephen Hawking uważał, że sukces w tworzeniu sztucznej inteligencji może być największym wydarzeniem w dziejach naszej cywilizacji”. Zagrożeniem mogą być kompetencje, w które będzie wyposażona.
Co ciekawe, w 2020 roku laboratorium badawcze OpenAI pochwaliło się, że zleciło sztucznej inteligencji napisanie artykułu, w którym przekona do siebie ludzi i sprawi, że nie będą się jej obawiali. Choć algorytm próbował uspokoić czytelników, że nie stanowi dla nich niebezpieczeństwa, efekt może być jednak zupełnie odwrotny. Artykuł został napisany przez algorytm GTP-3, czyli program wykorzystujący technikę uczenia maszynowego i potrafiący naśladować człowieka w tworzeniu długich złożonych zdań. I to sama sztuczna inteligencja przyznała, że… będzie musiała zniszczyć ludzkość.
Zmniejszenie ryzyka, że dojdzie do zagłady ludzkości z powodu sztucznej inteligencji powinno być priorytetem dla świata, tak jak jest to w przypadku innych porównywalnych zagrożeń w rodzaju pandemii czy wojny nuklearnej– ostrzegają eksperci (Money.pl).
Źródło: Radio ZET, Business Insider, The Guardian, Didaskalia/Wirtualna Polska
Dziękujemy za przeczytanie artykułu do końca. Bądź na bieżąco! Polub naszą stronę na Facebooku
Oceń artykuł
