Technologia sztucznej inteligencji idzie do przodu. Programiści dążą do stworzenia systemów, które będą w stanie samodzielnie podejmować decyzje, uczyć się i mistrzowsko naśladować albo nawet prześcignąć człowieka. Należąca do Google (GOOGL  ) firma DeepMind może się już pochwalić programem, który pokonał mistrza świata w go.

Postęp wiąże się jednak z pewnym ryzykiem.

Sztuczna inteligencja wykorzystuje uczenie maszynowe: analizuje dane przy pomocy algorytmów, przetwarza je i dochodzi do pewnych wniosków lub przewiduje konsekwencje. Dzięki temu maszyny nie muszą polegać na oprogramowaniu tworzonym przez człowieka, zawierającym szczegółowe wskazówki do każdego zadania.

Jednym z przykładów zastosowania uczenia maszynowego jest rozpoznawanie obrazów. Systemy tego typu wykorzystuje między innymi Facebook. Na podstawie analizy ogromnej ilości danych wizualnych rozpoznają one określone wzorce i umożliwiają automatyczną identyfikację człowieka lub psa na zdjęciu.

Maszyny zdolne do samodzielnego uczenia się i wykorzystywania zdobytej wiedzy to narzędzia, które dają potężne możliwości, ale i niosą ze sobą zagrożenia. Sztuczna inteligencja może opacznie zrozumieć polecenie i zachować się w niepożądany, a nawet niebezpieczny sposób. Naukowcy pracują więc nad coraz lepszymi technikami uczenia maszyn przewidywalnych, wydajnych i bezpiecznych działań.

Kontrolowaniem rozwoju sztucznej inteligencji zajmuje się między innymi kierowana przez założyciela Tesli (TSLA  ) Elona Muska organizacja OpenAI. Wspólnie z DeepMind realizuje ona program uczenia przez wzmacnianie (ang. reinforcement learning). Naukowcy wydają maszynie polecenia w sztucznym, ściśle kontrolowanym środowisku, przypominającym grę wideo. Właściwe decyzje są nagradzane, zaś błędne - karane. Jest to rygorystyczny i czasochłonny proces oparty na metodzie prób i błędów, lecz naukowcy mają nadzieję, że przyczyni się on do poprawy zdolności analitycznych maszyn i ograniczy liczbę niewłaściwych działań. Badacze pracują również nad systemami uczenia, które angażowałyby ludzi w większym stopniu, a nawet zachęcały sztuczną inteligencję do proszenia człowieka o wskazówki.

Niebezpieczne mogą być nie tylko błędy popełniane przez same maszyny. Zdarza się, że luki w systemach wykorzystują hakerzy i inni przestępcy. Istnieją grupy programistów, które skupiają się na ulepszaniu zabezpieczeń sztucznej inteligencji przed atakami i zwiększaniu jej skuteczności. Obecnie technologię rozpoznawania twarzy można łatwo oszukać, chociażby malując na skórze wzory. Przykład Tay, eksperymentalnego bota stworzonego przez Microsoft (MSFT  ), pokazuje zaś, jak ludzie są w stanie "zepsuć" sztuczną inteligencję. Użytkownicy Twittera szybko nauczyli maszynę rasistowskich obelg, przez co trzeba było ją wyłączyć.

Naukowcy starają się również przewidzieć problemy, które jeszcze nie wystąpiły. Niektórzy obawiają się, że maszyny staną się tak zdeterminowane w dążeniu do celu, że zaczną usuwać wszystkie przeszkody, w tym ludzi próbujących je wyłączyć.

Za jakiś czas sztuczna inteligencja może poważnie zagrozić istnieniu ludzkości. Zdaniem Elona Muska, Steve'a Wozniaka i Billa Gatesa ewolucja maszyn może zajść tak daleko, że nie będziemy w stanie ich zrozumieć i kontrolować.

Komputery nieprędko prześcigną jednak człowieka. Prawdziwa sztuczna inteligencja jeszcze nie powstała, a nawet najbardziej zaawansowane maszyny miewają problemy z banalnymi zadaniami.