Prawo do prywatności zanika, maszyny zabierają nam pracę, a wybory wygrywają hakerzy i trolle. Wiele mówi się o szansach cyfrowej rewolucji, a jednocześnie wiele osób przestrzega przed zagrożeniami, jakie niesie. Słusznie?
Ta wizja potrafi naprawdę pobudzić wyobraźnię: choćby obrazem robota z zaawansowanym algorytmem uczenia się, który zaczyna być świadomy swojego istnienia i zadawać niewygodne pytania. Kto oglądał "Terminatora", "Matriks", "Chappie", "Black Mirror" albo czytał książki Lema czy Asimova, ten wie, co dzieje się dalej.
Na szczęście od tego konkretnego zagrożenia jesteśmy jeszcze bardzo daleko. To, co nazywamy "sztuczną inteligencją", jest po prostu algorytmem stworzonym do wykonywania konkretnego zadania i na razie nie ma nawet pomysłu na to, jak miałby działać program, który ma własną wolę.
- Nasz cały proces poznawczy jest oparty na emocjach. Jeśli komponent emocjonalny związany z ciałem migdałowatym mózgu zostanie odcięty, nie nastąpi akt poznawczy. Póki maszyna nie nauczy się czuć - a ciągle nie wiadomo, jak miałoby się to odbywać - to nie będzie miała świadomości, że coś obserwuje, bo nie będzie temu nadawała znaczenia - uspokaja Marcin Przybyłek, pisarz science fiction, lekarz z wykształcenia, znany m.in. z serii książek "Gamedec". - Najdoskonalsza maszyna sama nie zrobi nic, choćby oceniła świat jako nieoptymalnie zorganizowany. Brakuje jej aktu poznawczego.