Administracja Bidena prosi hakerów o pomoc w okiełznaniu AI, a Biały Dom skłania się ku uregulowaniu sztucznej inteligencji, aby zachować miejsca pracy

Dla większości ludzi słowo haker ma negatywne konotacje, ale wiele osób w tej często błędnie identyfikowanej grupie działa na rzecz ulepszenia świata online.

Technologia sztucznej inteligencji (AI) - na czele której znajduje się ChatGPT - budzi obawy rządów na całym świecie o jej wpływ. Biały Dom podejmuje kroki w celu rozwiania tych obaw. Ogłosił między innymi wydarzenie poświęcone hakowaniu podczas konferencji bezpieczeństwa DEF CON, która odbędzie się jeszcze w tym roku.

Dlaczego to wydarzenie jest potrzebne?

Prezydencka inicjatywa dotycząca AI pojawia się w obliczu rosnącego globalnego zainteresowania i obaw związanych z kontrolowaniem tej technologii, napędzanych przez podekscytowanie i finansowanie zainicjowane przez ChatGPT.

Administracja Bidena poważnie podchodzi do kwestii przyszłości AI, a na całym świecie dołączyło do niej wiele innych rządów. Na przykład ustawodawcy Unii Europejskiej finalizują zmiany w kompleksowej ustawie o AI, która ograniczy i potencjalnie zakaże pewnych zastosowań sztucznej inteligencji.

Podczas gdy wokół wykorzystania AI narastają obawy, istnieje wiele przypadków użycia poza aplikacjami opartymi na czatach lub przypadkami, które mogłyby zagrozić globalnym miejscom pracy. Na przykład AtomBeam wykorzystuje AI do kompresji danych nawet o 75%, co czterokrotnie zwiększa ich przepustowość.

Wydarzenie wspierane przez Biały Dom zostanie przeprowadzone w celu zidentyfikowania słabości w generatywnych systemach AI. Liczni uczestnicy, w tym hakerzy i specjaliści od polityki, będą mieli za zadanie zbadać generatywne modele od wiodących firm, takich jak Google Alphabet Inc (NASDAQ: GOOG), Nvidia Corp (NASDAQ: NVDA) i Stability AI.

Wydarzenie jest planowane z pomocą AI Vulnerability Database, Humane Intelligence, Microsoft Corp. (NASDAQ: MSFT) i SeedAI. Do wyłonienia zwycięzcy zostanie użyty system punktowy, a format "zdobądź flagę" zostanie zaimplementowany, aby zachęcić uczestników do skupienia się na różnych szkodliwych zachowaniach.

Rosnąca popularność AI wymusza zaangażowanie rządów na całym świecie. Krytycy twierdzą, że wiele systemów AI, choć ma duży potencjał, pozostaje enigmatycznych, stwarzając zagrożenia, takie jak promowanie stronniczego podejmowania decyzji, wypieranie pracy ludzkiej, rozpowszechnianie fałszywych informacji i ewentualnie autonomiczne angażowanie się w bezprawne działania.

Pomimo możliwości niewłaściwego wykorzystania, firmy zajmujące się AI nadal przyciągają duże grono użytkowników i inwestorów.

W artykule opublikowanym przez The New York Times przewodnicząca Federalnej Komisji Handlu Stanów Zjednoczonych, Lina Khan, zauważyła, że obecna sytuacja związana z AI przypomina czasy, gdy Google i Facebook (NASDAQ: META) były nowością na świecie.

"W miarę jak wykorzystanie AI staje się bardziej powszechne, urzędnicy publiczni mają obowiązek zapewnić, że ta historia okupiona ciężkimi doświadczeniami nie powtórzy się" - powiedziała.