Między teorią a praktyką nie ma różnicy… tylko w teorii. W praktyce jest.

Matematyka jest królową nauk a historia jest nauczycielką życia? Obie dziedziny połączyć ma AI – sztuczna inteligencja. Ona jednak potrzebuje lekcji etyki i to w trybie pilnym.

Bieżące dyskusje o sztucznej inteligencji nakręcane są przez dwa wątki: do czego będzie zdolna – w jaki sposób i gdzie wykorzysta się ją dla ludzkości oraz w jakim stopniu usprawni nasze życie. Niewiedzę zastępujemy (niesprawdzoną jeszcze) hipotezą i imaginacją. I tu do gry wkraczają… etycy.

Wielu badaczy, na co dzień zajmujących się współistnieniem człowieka z inteligentnymi maszynami, nakreśla inżynierom etyczne wartości związane z jej rozwojem. Rewolucja 4.0 wydaje się być tym momentem, w którym warto wyciągnąć wnioski z przeszłości. Z czasów, gdy naukowe dokonania człowieka przekraczały wyobrażenia o tym, jakie następstwa niesie za sobą rozwój technologii.

Stałem się śmiercią; niszczycielem światów – skonstatował prof. Robert Oppenheimer na wieść o udanym wybuchu bomby atomowej w Los Alamos.

Kowalska królową nauk

W moim odczuciu, etyka powinna być niejako zespolona z naukami ścisłymi i ta więź wydaje się wyjątkowo kluczowa. Więcej! Jest niezbędna w perspektywie rozwoju AI.

Pamiętacie Państwo hasło wywieszane niegdyś szkołach – „Matematyka królową nauk, historia nauczycielką życia”? Zabrzmi banalnie, ale jest to prosta prawda: przeszłość wielokrotnie „uczyła” (często bezskutecznie), że wiedza nie zawsze wykorzystywana jest w słusznych celach. Zdaję sobie sprawę, że połączenie etyki i sztucznej inteligencji to karkołomne zadanie – zatrważająca liczba potencjalnych scenariuszy i realnych możliwości nie ułatwiają stworzenia klarownych zasad. Rękawicę jednak trzeba podnieść. I to szybko.

Sztuczna inteligencja jest potencjalnie groźniejsza od bomb atomowych – to Elon Musk.

Hiperbole szefa Tesli jednych śmieszą, u innych zaś wywołują wzruszenie ramion. Ja mam gęsią skórkę. Owszem, AI w rękach Jana Kowalskiego to żadne zagrożenie: Kowalski odpala Netflixa i w polecanych ma kolejną serię „Black Mirror” (serial poleciła „osobiście” AI), zagryzając pizzą zamówioną przez chatbota Google’a.

Z Kopernika też się śmiali!

Jeśli jest coś, co chciałabym, abyście zapamiętali, to ta zasada. Sztuczna inteligencja to my. Ale sztuczna inteligencja nie jest taka, jak my – mówi Shannon Vallor, etyczka technologii z Uniwersytetu Santa Clara i klaruje, że AI to samouczące się algorytmy i w teorii ich baza wiedzy zbudowana jest z informacji przekazywanych przez człowieka. W teorii tyle ile człowiek da – tyle AI weźmie.

Legendarny już futurolog – Raymond Kurzweil – twierdzi, że jeszcze przed 2029 r. boty przyswoją więcej niż oczekiwaliśmy. Będą nie do odróżnienia od ludzkiej inteligencji, z łatwością zdołają przejść test Turinga, określający różnice między maszynami a ludźmi. Tak naprawdę to już jest za nami – AI już potrzebuje większych wyzwań i stąd np. Google czy Facebook stworzyły własne, trudniejsze wersje powyższego testu. Kurzweil idzie za ciosem i zapewnia, że wkrótce AI zdoła przyswoić konkretny styl myślenia, ludzką osobowość i słownictwo tak, aby móc prowadzić – i to lepiej! – np. mojego bloga (cóż, na pewno będzie mniej błędów interpunkcyjnych).

Dylematy w liczbach

Jako urodzony sceptyk, myślę częściej nie o zbawionych ludziach i planecie dzięki AI, a o decyzjach na linii życie-śmierć, podejmowanych przez komputery, np. duchu klasycznego dylematu wagonika (w sytuacji katastrofy drogowej poświęcić życie pieszego czy pasażera?) Część tych dylematów rozwiążą jednak nie sceptycy czy etycy, a bilety banków narodowych – pieniądze. Światowy rynek AI do 2025 r. będzie wart 190 mld USD. Fundacja Digital Poland opublikowała niedawno raport dotyczący rozwoju sztucznej inteligencji na świecie. Wynika z niego, że największe nadzieje w AI pokładają Chiny — do 2030 r. ten rynek ma wzrosnąć do 150 mld USD. Na prace badawczo-rozwojowe rząd USA wydał w 2016 r. około 1,2 mld USD, a sektor prywatny – 30 mld USD. Cel jest jeden – zainwestować i zarobić na AI krocie. Nawet ponosząc znaczne ryzyko.

Wojna i Komisja Europejska

Stworzenie sztucznej inteligencji byłoby największym wydarzeniem w historii ludzkości. Niestety, mogłoby również być ostatnim, chyba że nauczymy się panować nad związanym z tym ryzykiem – stwierdził niegdyś Stephen Hawking. Czego się obawiał? Uważał, że organizacje militarne już niedługo zaczną wykorzystywać autonomiczne systemy zbrojeniowe do eliminacji celów. Jak mówią Anglicy nightmare came true: autonomiczne drony z wybuchowym ładunkiem czy rakietami – to już się dzieje. Na poziomie społeczeństw wiemy już, że nie ma na co czekać. Do końca 2018 r. Komisja Europejska przygotuje kodeks etyki, który ma obowiązywać nie tylko przedsiębiorców rozwijających sztuczną inteligencję, ale również i urzędników. Komisja złapie ryzyko w gąszcz regulacji.

Pytanie, czy jakiekolwiek kodeks (nawet najbardziej inteligentny) kiedykolwiek na dłużej zatrzymał ludzki pęd do potykania się o realia, utkane z marzeń.

 

Paweł Wyborski