Ty to ja, ja to ty – kto jest głupi: ja czy ty?

Nowe wzbudza w ludziach strach, ciekawość, nadzieję ale i dreszczyk niepokoju na plecach. Ludzie wiedzą, że nie wiedzą, ale TO ma być bezbłędne niczym cabrio ferrari w majowe popołudnie. TO potrzebuje najlepszego sprzętu, wkładu ludzkich mózgów i paliwa klasy premium. O czym mowa? O sztucznej inteligencji.

 

Zacznijmy od koncepcji – sztuczna inteligencja (ang. artificial intelligence, AI) jest generalnym określeniem na algorytmy, które w określonych sytuacjach zachowują się jak człowiek 2.0 – automatycznie i znacznie szybciej podejmują takie same lub lepsze decyzje w oparciu o znane, dostępne informacje. Machine learning (ML) to jeden ze sposobów uczenia się przez AI, to nic innego jak „sztuka szukania” reguł i zależności w danych. Co więcej nie wymaga ręcznego programowania skomplikowanych wzorów, wystarczą algorytmy, które na podstawie zdobytej wiedzy na wcześniejszych i już poznanych przykładach, wyciągają wnioski. Wbrew niektórym wizjom, ML nie kreuje zatem rzeczywistości, ale odtwarza ją na podstawie tego co już „wie”.

Próby stworzenia AI rozpoczęły się od napisania dosyć łatwych algorytmów samouczących, jednak z biegiem czasu powtarzalne czynności stały się dla algorytmów (i ich twórców) zbyt proste.

Algorytm do nauki potrzebuje ciągle nowych danych. Z jednej próbki algorytm uczy się raz, bez nowych doświadczeń – nie powstaje nowa wiedza. Często spotykam się ze zjawiskiem nadmiernego dopasowania algorytmu do danych. O co chodzi? Otóż na bazie takich samych albo podobnych danych może on mieć problem z rozpoznaniem nowych obiektów. Cały czas żąda wyzwań, a tłumacząc na nasze „chce wyjść ze swojej strefy komfortu”.

Koń jaki jest, każdy widzi

Często jest tak, że w bardzo dużej liczbie danych, niewiele z nich jest wartościowych do nauki i budowania wiedzy. Załóżmy, że w bazie mamy 1TB danych o psach, to algorytm nigdy nie nauczy się rozpoznawać konia. Natomiast 1MB danych z przykładami wszystkich gatunków zwierząt umożliwia zbudowanie większej bazy wiedzy – AI dzięki niej odróżni ssaka nieparzystokopytnego od udomowionego wilka. Im większa różnorodność i entropia zbioru danych tym lepiej. To większa szansa na znalezienie wartościowych informacji, służących do budowania konkretnej wiedzy. ML jest jak silnik ferrari, które szybko „zakrztusi się” chrzczonym paliwem. Zarazem jest bardzo wrażliwy na jakość danych – błędne dane to błędne wnioski. Jeżeli je podrasujemy, to ML nauczy się odtwarzać „zmanipulowaną rzeczywistość”. Wtedy rodzi się pytanie, która rzeczywistość to ta właściwa.

Bystrzaki na zakupach

Z AI obcujemy na co dzień: w telefonie – poprawia selfie; w laboratoriach medycznych – diagnozuje raka płuc; w myśliwcu – zastępuje pilota, a w e-sklepach dzięki analizie zachowań klienta może przewidzieć jakiego produktu szuka konsument, co mu się spodoba, ile może wydać i czego zapomniał. Mogłoby się wydawać, że Steven Spielberg w swoim filmach wielokrotnie fantazjował, ale jest spora szansa, że prozaiczna czynność wyboru i kupna produktu będzie rozgrywać się bez człowieka i masy niepotrzebnych rzeczy w koszyku. Prawdopodobnie w przyszłości e-handel będzie realizowany przez dwie sztuczne inteligencje, znające nas na wylot:

*kupującego – agent AI klienta, znający potrzeby konsumenta – będzie za niego podejmować decyzje i realizować zakupy;

*sprzedającego – agent AI sklepu, proponujący towary agentowi AI klienta.

Sztuczna inteligencja – sz(t)uka

Kiedyś naukowcy byli sceptycznie nastawieni do AI. I owszem, stosunkowo łatwo sprawić, żeby komputery przejawiały umiejętności dorosłego człowieka w testach na inteligencję albo w grze w warcaby, ale jest trudne albo wręcz niemożliwe zaprogramowanie im umiejętności rocznego dziecka w percepcji i mobilności – to paradoks Hansa Moraveca.

– Najtrudniej zaprogramować te ludzkie umiejętności, które są nieświadome. Jesteśmy bardziej świadomi prostych procesów, które nie działają dobrze, niż złożonych procesów, które działają bezbłędnie – wywodził zaś Marvin Minsky.

Oba te twierdzenia mają swoje mocne podstawy, choć pamiętajmy, że pochodzą one z lat 80. ubiegłego wieku. Wówczas komputery miały za małą moc obliczeniową, niewystarczającą pojemność pamięci, ubogą bazę danych o świecie i ograniczenia algorytmów. Ich „inteligencja” była niejako z góry sprzętowo ograniczona.

Stan na teraz? Wiem, że nic nie wiem. Bardziej zajmuje mnie dylemat, co będzie, jak AI znajdzie odpowiedź na nurtujące ludzkość pytania. Bo co było pierwsze: jajko czy kura?

Paweł Wyborski