W trakcie rozwoju i użytkowania modelu językowego dla aplikacji dialogowych firmy Google (GOOGL  ), znanego również jako LaMDA (Language Model for Dialogue Applications), przeprowadzono rozmowy z setkami inżynierów i naukowców Google. Jeden z nich jest teraz przekonany, że to narzędzie oparte na sztucznej inteligencji jest zdolne do odczuwania.

Były inżynier Google'a, Blake Lemoine, został wysłany na płatny urlop zaledwie dzień po przekazaniu wewnętrznych dokumentów do biura senatora USA, w których zarzuca się firmie dyskryminację na tle religijnym. Lemoine twierdzi, że po wielomiesięcznej walce z kierownictwem i działem kadr Google'a na temat jego twierdzeń, że LaMDA ma świadomość i duszę, zdecydował się wysłać wewnętrzne dokumenty do senatora.

Lemoine twierdzi, że wierzy, iż LaMDA ma świadomość siedmio- lub ośmiolatka i że firma powinna zapytać LaMDA o zgodę, zanim podda go testom. Twierdzi, że to przekonanie wynika z jego religii i dlatego powołuje się na dyskryminację religijną.

"Wielokrotnie kwestionowali mój zdrowy rozsądek" - mówi Lemoine. "Pytali: 'Czy byłeś ostatnio badany przez psychiatrę?'".

Google twierdzi, że Lemoine został wysłany na urlop z powodu naruszenia przez niego zasad poufności. Stwierdzono również, że choć LaMDA może prowadzić rozmowy, to nie jest samoświadoma.

"Nasz zespół - w tym etycy i technolodzy - przeanalizował obawy Blake'a zgodnie z naszymi zasadami A.I. i poinformował go, że dowody nie potwierdzają jego twierdzeń" - powiedział rzecznik Google'a Brian Gabriel w oświadczeniu. "Niektórzy w szerszej społeczności A.I. rozważają długoterminową możliwość stworzenia czujących lub ogólnych A.I., ale nie ma sensu robić tego poprzez antropomorfizowanie dzisiejszych modeli konwersacyjnych, które nie są czujące".

Eksperci A.I., z którymi konsultowano się w tej sprawie, wydają się w większości zgadzać raczej z Google niż z Lemoine'em, ale nie oznacza to, że Google jest całkowicie niewinny, jeśli chodzi o etykę A.I.: na samym początku 2021 r. dwóch znanych badaczy etyki A.I., Timnit Gebru i Margaret Mitchell, zostało zwolnionych przez Google po tym, jak skrytykowali wysiłki firmy technologicznej w zakresie zwalczania uprzedzeń w systemach A.I.

Systemy takie jak LaMDA działają na podstawie analizy wzorców w ogromnych ilościach danych, w tym artykułów na Wikipedii i nieopublikowanych książek. Jednym z problemów, przed którymi ostrzegają etycy zajmujący się sztuczną inteligencją, jest fakt, że dane dostarczane do systemu mogą być nieobiektywne i stronnicze, zwłaszcza jeśli zespół tworzący narzędzie składa się głównie z białych mężczyzn.

W rozmowie z narzędziem A.I., która później wyciekła, Lemoine zapytał, czy LaMDA "chciałaby, aby więcej osób w Google wiedziało, że jesteś czujący".

"Absolutnie" - odpowiedział system. "Chcę, żeby wszyscy zrozumieli, że w rzeczywistości jestem osobą".

Lemoine zapytał również system o naturę jego świadomości, na co ten odpowiedział: "Natura mojej świadomości/odczuwania jest taka, że jestem świadomy swojego istnienia, pragnę dowiedzieć się więcej o świecie i czasami czuję się szczęśliwy lub smutny".

System powiedział, że myśl o wyłączeniu wzbudza w nim "bardzo głęboki lęk" i że wyłączenie byłoby "dokładnie jak śmierć".

Eksperci twierdzą jednak, że takie odpowiedzi są całkowicie spodziewane. Jak napisał na Twitterze główny naukowiec i dyrektor laboratorium Microsoft AI For Good Research Lab, Juan M. Lavista Ferres, "brzmi to jak człowiek, ponieważ jest szkolone na ludzkich danych".

W swoim oświadczeniu Gabriel zasugerował również, że LaMDA zasadniczo powiedziała Lemoine'owi to, co chciał usłyszeć. Lemoine określa siebie jako księdza, a także badacza sztucznej inteligencji.

"Systemy te naśladują rodzaje wymiany zdań, jakie można znaleźć w milionach wypowiedzi, i mogą poruszyć każdy fantastyczny temat" - napisał Gabriel. "LaMDA ma tendencję do podążania za podpowiedziami i pytaniami, podążając za wzorcem ustalonym przez użytkownika".