O autorze
Jestem profesorem AGH i dodatkowo przez ponad 30 lat byłem profesorem Uniwersytetu Ekonomicznego.

Kieruję utworzonym przeze mnie w 1973 roku Laboratorium Biocybernetyki AGH. Byłem też przez wiele lat kierownikiem Katedry Automatyki i Inżynierii Biomedycznej AGH, którą jednak w 2016 roku przekazałem w ręce jednego z moich dość licznych wychowanków, którzy dziś są już profesorami. Musiałem oddać kierownictwo Katedry ponieważ zaczęła obowiązywać na tym stanowisku kadencyjność. Ale Laboratorium nadal kieruję.

Kilka słów o mojej drodze do tego miejsca, w którym się obecnie znajduję:

Zawsze pasjonowała mnie nauka, więc zostałem naukowcem. A jak stwierdziłem, jaka ta nauka jest fajna, to zacząłem się starać przekonać o tym jak najwięcej ludzi. Przekazuję moją fascynację wiedzą, nauką i techniką moim studentom, w wyniku czego wypromowałem już ponad 300 magistrów i blisko 70 doktorów. Staram się także popularyzować wiedzę na różne sposoby: w książkach, w gazetach, w tygodnikach, w radiu, w telewizji i na odczytach. Zebrało się tego ponad 400 pozycji drukowanych i chyba drugie tyle w formie różnych wystąpień – na żywo i w mediach.

Ponieważ wiedza nieświeża jest równie niesmaczna jak nieświeża kiełbasa – więc staram się zawsze mieć dostęp do wiedzy najświeższej. A ponieważ taką świeżą wiedzę ma się wtedy, gdy się ją samemu wytwarza, więc z zapałem prowadzę badania naukowe. W badaniach tych staram się wykorzystywać moje kwalifikacje inżyniera na potrzeby biologii i medycyny oraz moją wiedzę biologiczną (po doktoracie z automatyki studiowałem na Akademii Medycznej) jako źródło inspiracji dla budowy nowych systemów technicznych. Czasem udaje mi się coś odkryć, a jak już odkryję, to wzorem wszystkich naukowców piszę publikacje. Tak mi to weszło w krew, że napisałem już tych publikacji dosyć dużo, ale jak licznik moich prac w wykazach Biblioteki Głównej AGH przekroczył tysiąc, to przestałem je liczyć.

Opierając się na nie sprawdzonym przekonaniu, że jak ktoś ma osiągnięcia naukowe, to rządzić też potrafi, społeczność mojej uczelni wybrała mnie, żebym pełnił rolę rektora AGH. Potem ten wybór powtórzono jeszcze dwa razy, więc dosyć długo paradowałem w tych królikach udających gronostaje. Potem wybrano mnie na członka Polskiej Akademii Nauk i Polskiej Akademii Umiejętności oraz kilku akademii zagranicznych. W PAN pełniłem funkcję prezesa Krakowskiego Oddziału tej Korporacji.

No a potem zaproszono mnie, żebym pisywał na tym blogu. No to pisuję - najlepiej, jak potrafię!

Kiedy roboty staną się mądrzejsze od ludzi?

Napisałem w tym blogu już ponad 20 tekstów na temat różnych aspektów tak zwanej sztucznej inteligencji. Zachęcam do ich przeczytania, bo chociaż pierwsze były wpisywane dwa lata temu (jak ten czas leci :-) ) - to nie straciły na aktualności i nadal mogą dostarczyć Państwu ciekawych wiadomości na temat tej fascynującej techniki. Te moje wcześniejsze wpisy mówiły o przeszłości (jak powstawały i rozwijały się poszczególne metody sztucznej inteligencji) lub o stanie obecnym (nad czym specjaliści sztucznej inteligencji obecnie się trudzą). Dzisiaj chcę natomiast zabrać Państwa w przyszłość. Zaryzykuję próbę prognozy dotyczącej rozwoju sztucznej inteligencji i prawdopodobnych konsekwencji tego rozwoju. I spróbuję odpowiedzieć, kiedy robot, którego mózgiem jest bezustannie doskonalony komputer, stanie się mądrzejszy od człowieka, którego mózg jest wprawdzie wspaniały, ale taki sam od tysięcy lat...

O tym, że technika informatyczna dostarcza narzędzi coraz lepiej zaspokajających nasze potrzeby, zapewne nikogo nie trzeba przekonywać. Wystarczy porównać działanie pierwszych komputerów z możliwościami popularnego tabletu czy laptopa. Do podobnych wniosków prowadzi porównanie możliwości dawnych telefonów komórkowych z ogromną skalą możliwości, jakie oferują obecne smartfony. Jak wiadomo od wielu lat obowiązuje tak zwane prawo Moore'a, zgodnie z którym stopień złożoności mikroprocesorów (mierzony liczbą tranzystorów wbudowanych w ich strukturę) podwaja się co około 18 miesięcy.
Obecnie mówi się wprawdzie nieco ostrożniej o podwajaniu co 24 miesiące, ale oznacza to także wykładniczy wzrost możliwości technicznych tych procesorów, czemu towarzyszy analogiczny wzrost pojemności pamięci komputerów, przepustowości sieci telekomunikacyjnych i innych parametrów budowanych systemów informatycznych.



Oglądając wykresy ilustrujące prawo Moore'a, takie jak przytoczony na rysunku powyżej, a także liczne inne, zamieszczane w różnych opracowaniach i omówieniach, wielu Czytelników nie zdaje sobie sprawy z tego, jak potężny jest wzrost mocy obliczeniowych ilustrowany na tych rysunkach. Owszem, widzimy że kolejne kropeczki (opisane symbolami odpowiadających im mikroprocesorów) znajdują się coraz wyżej, więc mają coraz więcej tranzystorów. Ale o ile więcej? Tego tak dobitnie nie widać.

Wynika to z faktu, że wykresy te sporządza się zwykle w skali logarytmicznej, a większość z nas nie bardzo "czuje" logarytmy.

Spróbujmy więc ocenić to jakościowo wychodząc od obserwacji opisu pionowej osi wykresu. No i zamiast liczby tranzystorów wyobraźmy sobie przez chwilę, że chodzi o zarobki, bo co jak co - ale pieniądze to dobrze czujemy! :-)

Na początku (w lewym dolnym rogu wykresu) mamy na osi pionowej wartość 1000. No cóż, 1000 złotych miesięcznie to niedużo, ale są tacy, którzy za tyle muszą próbować przeżyć. Ale przesuwamy się trochę w czasie (na osi poziomej od roku 1970 do roku 1975) - i odpowiednie kropki na wykresie lokują się w miejscu, któremu na osi pionowej odpowiada wartość 10.000. No, to już jest coś - dziesięć tysięcy miesięcznego zarobku zadowoliłoby wielu Czytelników!

Ale idźmy dalej. Kolejne pięć lat i w roku 1980 mamy już kropkę na wysokości opisanej jako 100.000.

Sto tysięcy złotych miesięcznie! Czy ktoś by odmówił takiej pensji?

Kolejne przesunięcie w czasie lokuje nas (w okolicy 1990 roku) w miejscu, gdzie na osi pionowej podano wartość 1.000.000. Okrągły milion! Od perspektywy takich miesięcznych zarobków można by było naprawdę dostać zawału, więc porzućmy to chwilowe wyobrażenie, że chodzi pieniądze, przypominając sobie ponownie, że mowa jest tu o liczbie tranzystorów w jednym mikroprocesorze. Liczbie, która obecnie zbliża się do dziesięciu miliardów!

Wykonałem wraz z Państwem tę krótką wycieczkę do krainy wielkich (i szybko rosnących!) liczb, żeby uprzytomnić, z jak ogromnie szybkim postępem mamy do czynienia w przypadku rozwoju elektroniki, informatyki i telekomunikacji.

Oczywiście poziom inteligencji systemów informatycznych nie jest wprost proporcjonalny do mocy obliczeniowej komputerów. Bardzo wiele zależy tu od tego, jak mądre programy potrafimy zbudować. Ale prawda jest taka, że mocą obliczeniową można wiele barier pokonać. Na przykład odwołując się do opisanych tu wcześniej programów komputerowych grających w szachy można stwierdzić, że ich rosnąca siła wynikała w dużej mierze z tego, że mogły szybko przeliczać konsekwencje wielu możliwych posunięć oraz miały w pamięci setki historycznych rozgrywek szachowych, na których mogły się wzorować. Popatrzmy, jak zmieniały się rankingi szachowe ludzi (arcymistrzów) i programów komputerowych.Da się to prześledzić, ponieważ siłę gry szachisty (prawdziwego lub wirtualnego) można ocenić za pomocą tak zwanej punktacji elo. Z punktacji tej wynika, że na początku komputery były bez szans. W latach 60. najlepszy program Chess 3.0 "wyciągał" 1500 punktów elo, podczas gdy arcymistrz Boris Spassky grał na poziomie 2480. Ale potem osiągnięcia kolejnych arcymistrzów podnosiły poziom gry stosunkowo wolno, podczas gdy kolejne programy komputerowe pięły się po drabince punktów coraz wyżej.
Na rysunku pokazano, jak zmieniała się (wyrażana w punktach elo) siła gry szachistów i najlepszych programów komputerowych. Podano nazwiska czołowych szachistów oraz nazwy niektórych programów, lokując je na wykresie w zależności od liczby punktów. Obserwując obie linie można było przewidzieć, że nadejdzie chwila, gdy komputer pokona arcymistrza szachowego - i nawet można było przewidzieć, kiedy to nastąpi.

I nastąpiło - 13.05.1997 ówczesny arcymistrz szachowy, Garry Kasparov przegrał mecz z programem Deep Blue.

Przechodząc do rozważań ogólniejszych można powiedzieć, że podobna sytuacja szykuje się w sztucznej inteligencji rozważanej jako całość. Nie da się oczywiście "wycenić" inteligencji traktowanej całościowo tak samo skutecznie, jak siły gry w szachy. Jednak wiadomo, że możliwość intelektualne ludzi rosną (z pokolenia na pokolenie) bardzo wolno. Pewien wzrost się obserwuje, zwłaszcza za sprawą doskonalenia kształcenia, ale jest to wzrost powolny i (statystycznie) niewielki. Wynika to między innymi z faktu, że rozmiary mózgu ludzkiego są limitowane przez rozmiary czaszki, a rozmiar czaszki jest ograniczony przez prześwit dróg rodnych. Już obecnie poród dziecka jest dla większości kobiet ciężkim przeżyciem. Gdyby zaczęły się tworzyć płody o znacząco większych głowach - jedynym sposobem ich przyjścia na świat byłoby cesarskie cięcie. Natura nie zezwala na rozwój w tym kierunku i współczesny człowiek ma objętość mózgu praktycznie taką samą, jak ludzie w starożytności czy w średniowieczu.

Oczywiście rozmiar mózgu nie jest głównym czynnikiem determinującym inteligencję. Są ludzie genialni o zupełnie przeciętnych rozmiarach mózgu i ludzie mający ogromny mózg i maleńki intelekt. Wszystko polega bowiem na stopniu sprawności korzystania z tego "neurobiologicznego wyposażenia".

Ale także i tu możliwości postępu są dość ograniczone, bo przez tysiące lat rozwoju cywilizacji i kultury Homo Sapiens nauczył się wykorzystywać posiadany mózg bardzo efektywnie i niewiele więcej można z niego "wycisnąć".

Tymczasem rozwój komputerów i programów sztucznej inteligencji nie podlega żadnym ograniczeniom. Na razie systemy te są - mówiąc kolokwialnie - głupsze od człowieka. Wiele im brakuje w zakresie pomysłowości, inwencji, intuicji, kreatywności.

Na razie...

Inteligencja maszyn rośnie jednak nieprzerwanie i w sposób nieunikniony dojdzie do tego, że w pewnym momencie przewyższy inteligencję człowieka. Z niektórych oszacowań wynika, że może to nastąpić pomiędzy 2030 i 2050 rokiem.

I co wtedy?

I wtedy będziemy mieli w tych maszynach bardzo wydajną i efektywną pomoc. Już dziś Internet gromadzi więcej informacji, niż mogłaby pomieścić pamięć jakiegokolwiek człowieka. Czy nas to martwi? Bynajmniej! Korzystamy z tego ogromnego zasobu wiadomości w sposób szybki i wygodny, więc jest nam z tym dobrze.

Inteligencja służy (między innymi) do oceny różnych sytuacji i do podejmowania decyzji. Obecnie musimy to robić sami, bo tylko my to potrafimy. Ale gdy powstaną inteligentne maszyny - to będziemy mogli korzystać z ich rad i pomocy, tak jak dzisiaj korzystamy z kalkulatorów.

Dlatego nie bójmy się przyznać, że w przyszłości robot może być bardziej inteligentny od człowieka. Samochód jest wszak szybszy od biegacza - i wcale nam to nie przeszkadza.

A co z prognozami, że przewyższająca ludzki intelekt inteligencja robota może stać się zagrożeniem dla ludzi?

No cóż, to zależy od tego, jak jej użyjemy. Samochód też bywa niebezpieczny, gdy się go zostawi na pochyłej drodze bez zaciągniętego hamulca, albo gdy za kierownicą jest nieodpowiedzialny (na przykład pijany) człowiek. Ale czy z tego powodu wyrzekamy się samochodów?
Trwa ładowanie komentarzy...