Głupota sztucznej inteligencji

Jedna z firm założonych przez Elona Muska zanotowała poważną wpadkę. Firma o nazwie xAI stworzyła program będący sztuczną inteligencją, odpowiadającą na przeróżne pytania użytkowników (podobnie jak ChatGPT). Program nazywa się Grok i jest darmowy w użytkowaniu.

Elon Musk ogłosił 4 lipca, że jego firma "znacząco udoskonaliła Grok". I zwrócił się do internautów, aby pomogli nauczyć program zachowania "politycznie niepoprawnego". Sztuczna inteligencja tego typu czerpie swoją wiedzę z internetu i dostraja swoje odpowiedzi przez interakcję z użytkownikami.

W przypadku Groka i apelu Muska, efektem były szokujące teksty generowane przez sztuczną inteligencję. Program zaczął na przykład atakować osoby o żydowsko brzmiących nazwiskach. Promował neonazistowskie hasła, aż w końcu zaczął nawoływać do masowego zamykania Żydów w obozach.

Wywołało to oczywiście ogromne oburzenie i protesty. W odpowiedzi na nie, firma skasowała jedynie niektóre wypowiedzi Groka i ogłosiła, że program potrzebuje trochę poprawek w algorytmie. Rasistowskie teksty wyjaśniła ostatnimi poprawkami programu, które uczyniły sztuczną inteligencję chętniej opierającą się na "ekstremistycznych poglądach". Głos zabrał też Elon Musk. Stwierdził, że Grok był "zbyt uległy wobec zachęt użytkowników", przez co stał się łatwy do "zmanipulowania".

Sztuczna inteligencja potrafi być głupiutka.


Nie była to pierwsza wpadka programu firmy xAI. Zaledwie miesiąc wcześniej program także generował wypowiedzi nazistowskie i antysemickie. Twierdził nawet, że w ojczyźnie Elona Muska, Republice Południowej Afryki, doszło do ludobójstwa... białych. Firma usprawiedliwiała się wówczas, że program uległ "nieautoryzowanej modyfikacji". Teraz modyfikacja była autoryzowana, a zachęty Elona Muska jak najbardziej oficjalne, a jednak efekt był bardzo podobny.

Takie problemy ze sztuczną inteligencją nie są nowością. Inne programy tego typu też generują nieprawdziwe treści. O ile Grok wygenerował treści skrajnie niepoprawne politycznie, tak program Gemini, stworzony przez Google, dał się złapać na absurdalnie skrajnej poprawności.

Poproszony o stworzenie obrazu Founding Fathers (Ojców Założycieli Stanów Zjednoczonych), wykreował portret, na którym była grupa ludzi różnej rasy. Były osoby czarnoskóre i Azjaci, co było oczywiście historyczną bzdurą.

Informację o tym, wraz z wygenerowanym zdjęciem opublikowaliśmy wtedy w rubryce "Plotki o artystach". Wzbudzała bowiem uśmiech i zasługiwała na lekkie potraktowanie. Ale sztuczna inteligencja może czynić też poważne szkody. Głoszenie kłamstw o ludobójstwie czy antysemickich haseł to tylko jeden z przykładów. Ale są jeszcze gorsze. W maju odbył się proces w sprawie samobójstwa 14-letniego chłopca, który był pod wpływem rozmów ze sztuczną inteligencją przez długi czas. Twórca programu, którego używał, firma Character.ai broniła się w sądzie, że wiadomości wysyłane do chłopca chroni Pierwsza Poprawka do Konstytucji, która mówi o wolności słowa. Sąd nie przychylił się do takiej argumentacji.

Na kolejnych przykładach widać problem, jaki istnieje ze sztuczną inteligencją. Coraz częściej nawołuje się do wprowadzenia kontroli takich programów. Dziennik "The Washington Post", opisując zagrożenia, zacytował polskiego ministra do spraw cyfryzacji. Krzysztof Gawkowski powiedział o nich, że "przymknięcie oka lub zignorowanie ich dzisiaj jest błędem, który może kosztować ludzkość jutro". Polski minister dodał też, że "wolność słowa jest dla ludzi, a nie dla sztucznej inteligencji".

Tymczasem Elon Musk ogłosił, że program Grok pojawi się już niedługo w samochodach Tesla. Dokąd nas zawiezie?

Możesz podzielić się tą treścią ze znajomymi!