Według wcześniejszych doniesień z chatbota MyAI należącego do Snapchata korzysta ponad 150 milionów użytkowników. Jednak niektórzy użytkownicy we wtorek przerazili się, gdy chatbot oparty na sztucznej inteligencji zaczął autonomicznie publikować enigmatyczne relacje.

Co się wydarzyło: doniesienia zalały media społecznościowe, gdy użytkownicy Snapchata odkryli, że niegdyś pomocny chatbot MyAI zaczął publikować własne relacje zawierające abstrakcyjne treści, co wzbudziło zdziwienie i niepokój użytkowników.

Posty, spójne na różnych kontach, wyświetlały dwa kolorowe elementy przedzielone ukośną linią przypominającą coś, co niektórzy nazywali sufitem lub ścianą.

Użytkownicy, którzy próbowali nawiązać kontakt z MyAI w sprawie tych dziwnych relacji, spotykali się z niepokojącą ciszą lub niejasnymi i konsternującymi odpowiedziami, takimi jak "Przepraszam, napotkałem problem techniczny" i "Przepraszam, jeszcze tego nie rozumiem!".

Strona wsparcia Snapchata na Twitterze (obecnie X) początkowo informowała: "Będziemy musieli przyjrzeć się temu bliżej". O północy zaktualizowali oświadczenie: "Funkcja MyAI doświadczyła tymczasowej awarii, która została już rozwiązana".

Snapchat udostępnił chatbota MyAI subskrybentom Snap+ w lutym. Obsługiwany przez ChatGPT OpenAI, chatbot podobno pomógł Snapchatowi zwiększyć bazę płatnych subskrybentów o 3 miliony.

Dlaczego jest to ważne: strona wsparcia Snapchata ostrzegała wcześniej użytkowników o ewoluującej naturze MyAI, przyznając, że odpowiedzi mogą zawierać stronnicze, niepoprawne, szkodliwe lub wprowadzające w błąd treści.

Zdolność chatbota do udzielania nieodpowiednich porad została również zgłoszona przez The Washington Post, powołując się na incydent, w którym użytkownik zaangażował MyAI w dyskusje na temat alkoholu i imprezowania i otrzymał niepokojące wskazówki.