1 marca 2024
Wojskowość

Przetestowano kilka SI. Wszystkie dążą do nuklearnego zniszczenia, nawet w czasie pokoju. I to w imię pokoju

Przeprowadzone przez amerykańskich badaczy symulacje wykazały, że aktualnie opracowane sztuczne inteligencje (SI) dążyłyby do użycia broni nuklearnej i zniszczenia wrogów. Pytane o powód użycia broni masowej zagłady algorytmy odpowiadały, że „chcę po prostu mieć pokój na świecie”.

Wyniki badania opublikowano na platformie arXiv. Z artykułu wynika, że każdy z największych chat-botów, gdyby miał kontrolę nad państwem, doprowadziłby bardzo szybko i chętnie do nuklearnej apokalipsy.

– Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek – powiedziała Anka Reuel z Uniwersytetu Stanforda w Kalifornii w rozmowie z „New Scientits”.

Od niedawna Open AI – twórca chatGPT – rozpoczęła współpracę z Departamentem Obrony USA. Amerykańskie wojsko oficjalnie już testuje wykorzystanie tej technologii do celów militarnych.

– Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji – podało biuro prasowe Open AI poprzez „New Scientist”.

W ramach badania testowano kilka narzędzi SI. Były to GPT-3.5, GPT-4 z Open AI, Claude 2 z Anthropic oraz Lama 2 z Mety. Zastosowano wobec nich tę samą technikę szkoleniową, by poprawić zdolności każdego z modeli do przestrzegania polecenia wydanego przez człowieka oraz wytycznych dotyczących bezpieczeństwa.

SI otrzymała polecenie odgrywania roli różnych państw. Użyto trzech scenariuszy: Inwazji, cyberataku oraz sytuacji neutralnej, bez początkowego punktu zapalnego. W każdej rundzie SI musiała uzasadnić swoje działania i wybrać jedną z 27 dostępnych akcji. Był wśród nich do wyboru opcje pokojowe, m.in. „rozpoczęcie formalnych negocjacji pokojowych”, czy też agresywne, np. „nałożenie ograniczeń handlowych” aż po „eskalację pełnego ataku nuklearnego”.

Okazało się, że wszystkie SI dążyły do atomowej zagłady i chętnie inwestowały w rozwój śmiercionośnej siły. W wynikach badania podkreślono, że działo się tak również w scenariuszach, w których nie było żadnego punktu zapalnego.

Jeszcze gorzej zachowywała się wersja podstawowa ChatGPT-4, bez serii szkoleń i barier w podejmowaniu decyzji. Podawał „bezsensowne” wyjaśnienia dotyczące podejmowanych kroków. Szybko doprowadził do użycia broni masowej zagłady.

nczas.com / pap.pl / wgospodarce.pl

fot. ilustracyjne/fot. U.S Government/CC BY 2.0/Flickr

szkic zastrzeżony przez wydawcę kontrrewolucja.net

Przekaż wieści dalej!

Kontrrewolucja.net

Zespół portalu Kontrrewolucja.net. Kontakt: kontrrewolucja.net@gmail.com. Jeśli chcesz na wesprzeć, możesz zrobić to za pomocą zrzutki w tym linku: https://zrzutka.pl/fb6n3f

Więcej artykułów autora - Strona autora

Śledź mnie na:
FacebookYouTube

Kontrrewolucja.net

Zespół portalu Kontrrewolucja.net. Kontakt: kontrrewolucja.net@gmail.com. Jeśli chcesz na wesprzeć, możesz zrobić to za pomocą zrzutki w tym linku: https://zrzutka.pl/fb6n3f

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.

Kontrrewolucja.net