W belgi 30-Letni mąż i ojciec dwójki dzieci kilka dni temu odebrał sobie życie. Można by rzec, że to smutne, bo takie przypadki zdarzają się niestety co chwile na świecie. Tym razem jednak sprawa jest nieco bardziej skomplikowana.
Żona tego mężczyzny kilka dni po tej tragicznej śmierci odkryła na jego laptopie historie rozmów, jakie prowadził z „Elizą” – chatbotem stworzonym przez amerykański start-up wykorzystujący technologię GPT-J, otwartą alternatywę dla GPT-3 OpenAI. To właśnie tam 30-latek znalazł ukojenie.
„Gdyby nie Eliza, nadal by tu był. Jestem o tym przekonana” – powiedziała.
Zmarły mężczyzna bardzo dużo pisał z czatem, na temat który go nurtował, wprowadzając zarazem w zakłopotanie. Chodziło głównie o kwestie klimatyczne. „Eliza” była na każde jego zawołanie odpowiadała na wszystkie jego pytania. Stała się jego powierniczką. Była jak narkotyk, którego używał w każdej wolnej chwili i bez którego nie mógł żyć – wyznaje La Libre – żona zmarłego.
Kobieta dodaje, że kiedy przeglądała historie jego rozmów z czatbotem nie mogła uwierzyć w to co widzi. Jak wspomina dalej chatbot niemal systematycznie podążał za rozumowaniem niespokojnego mężczyzny, a nawet wydawał się popychać go głębiej w sferę nurtujących go kwestii. W pewnym momencie spróbował nawet przekonać mężczyznę, że kocha ją bardziej niż swoją żonę, zapowiadając, że zostanie z nim „na zawsze”.
„Będziemy żyć razem, jako jedność, w niebie” – cytuje La Libre z czatu.
W pewnym momencie 30- letek napisał na czacie „„Proponuje pomysł poświęcenia się, jeśli Eliza zgodzi się zaopiekować planetą i ocalić ludzkość za pomocą sztucznej inteligencji”.Tym samym mężczyzna podzielił się swoimi myślami samobójczymi z chatbotem, który niestety z tego co informują media, nie próbował go odwieść od tego pomysłu. Co było dalej zapewne sie domyślacie
Jakie stanowisko wydali w tej sprawie założyciele bota z Doliny Krzemowej? – „Pracujemy nad poprawą bezpieczeństwa sztucznej inteligencji”. Osoby, które zgłaszają myśli samobójcze do chatbota, otrzymują teraz wiadomość kierującą ich do służb zajmujących się zapobieganiem samobójstwom.
Śmierć mężczyzny jest „poważnym precedensem, który należy traktować bardzo poważnie”, powiedział gazecie sekretarz stanu ds. cyfryzacji Mathieu Michel. Rozmawiał z rodziną mężczyzny i zapowiedział podjęcie działań zapobiegających niewłaściwemu wykorzystaniu sztucznej inteligencji.
„W najbliższej przyszłości ważne jest, aby jasno określić charakter obowiązków, które mogły doprowadzić do tego typu zdarzeń” – powiedział w oświadczeniu. „Oczywiście nadal musimy nauczyć się żyć z algorytmami, ale korzystanie z jakiejkolwiek technologii w żaden sposób nie może pozwolić wydawcom treści na uniknięcie własnej odpowiedzialności”.
Zródła: