Blog

PARADOKS W ROZWOJU AI

Rozwój sztucznej inteligencji budzi wiele emocji. Zdajemy sobie sprawę z ogromnych możliwości zastosowania AI w życiu codziennym, jak i potencjał AI do zrewolucjonizowania świata biznesu, przy wykorzystaniu na przykład obliczeń kognitywnych czy też głębokiego uczenia się maszyn.

Analizując zagadnienia sztucznej inteligencji warto zastanowić się nad pewnym paradoksem, związanym ze znacznymi jej ograniczeniami, a z których my, ludzie, jako świadomi użytkownicy AI- możemy nie zdawać sobie sprawy.

Paradoks Moravec’a

Nadal aktualne jest bowiem odkrycie z dziedziny sztucznej inteligencji i robotyki stanowiące, że wbrew tradycyjnym przeświadczeniom, wysokopoziomowe rozumowanie wymaga niewielkiej mocy obliczeniowej, natomiast działanie AI związane z koniecznością wykorzystania niskopoziomowej percepcji, przetwarzania sensorycznego i zdolności motorycznych wymagają olbrzymiej mocy obliczeniowej[1].

Rozumowaniem potocznie nazywamy proces myślowy polegający na uznaniu za prawdziwe pewnego przekonania lub stwierdzenia, na podstawie innego przekonania lub zdania uznanego za prawdziwe już uprzednio. Uznanie rozumowania za poprawne wymaga zastosowania reguł logiki oraz przyjętych za prawdziwe aksjomatów, takich jak prawa nauki, systemy prawne, dogmaty, zasady kulturowe, obyczaje, tradycje i autorytety. 

Z kolei jako percepcję określamy procesy zmysłowe oraz interpretujące je jako wytwór obiektów lub wydarzeń pochodzących z zewnętrznego, trójwymiarowego świata. Percepcję w szerokim zakresie opisać można jako zdolność rejestracji i uchwycenia przedmiotów i zdarzeń środowiska zewnętrznego: ich odbiór sensoryczny, zrozumienie, identyfikację i określenie werbalne oraz przygotowanie do reakcji na bodziec. Systemy percepcyjne człowieka umożliwiają mu widzenie, słyszenie, odczuwanie smaków, zapachów, dotyku, a także zmian temperatury. Najistotniejszym elementem percepcji wydaje się jednak poczucie świadomości (istnienia własnego oraz otoczenia).

Przetwarzanie sensoryczne u człowieka to w uproszczeniu proces neurologiczny zachodzący w układzie nerwowym, polegający na organizowaniu informacji pochodzących z naszego ciała i świata zewnętrznego w celu wykorzystania ich w codziennym życiu. Ludzki mózg w efektywny sposób przetwarza wrażenia wywołując automatyczne reakcje adaptacyjne, dzięki którym człowiek funkcjonuje w otoczeniu.

W przypadku odebrania przez mózg człowieka informacji sensorycznych, odczytanych jako te o istotnym znaczeniu, zwracamy na nie uwagę w ramach procesu zwanego „pobudzeniem”. W sytuacji, gdy grozi człowiekowi niebezpieczeństwo, gotowy on jest dzięki procesom zachodzącym w organizmie uciekać albo walczyć. W przypadku ustalenia przez mózg, że konkretne odbierane wrażenia nie są istotne z punktu widzenia przetrwania ludzki mózg pozwala odseparować bezużyteczne informacje w ramach procesu „hamowania”. W ten sposób rozpoznajemy odgłosy uliczne lub inne zwyczajowe dźwięki jako niezagrażające.

Hans Peter Moravec (kanadyjski futurolog i transhumanista, profesor badawczy w Instytucie Robotyki przy Uniwersytecie Carnegie Mellon w Pittsburghu) napisał: Stosunkowo łatwo sprawić, żeby komputery przejawiały umiejętności dorosłego człowieka w testach na inteligencję albo w grze w warcaby, ale jest trudne albo wręcz niemożliwe zaprogramowanie im umiejętności rocznego dziecka w percepcji i mobilności[2].

Należy zgodzić się z psychologiem Steven’em Pinker’em, że stwierdzenie to może stanowić jedno z najważniejszych odkryć jakich dokonano w dziedzinie sztucznej inteligencji. Pinker ustalił, że główną lekcją jaką wyniósł z wieloletnich badań nad AI jest to, że trudne problemy są łatwe, a łatwe problemy są trudne. Umysłowe zdolności czterolatka, które powszechnie uważamy za oczywiste, takie jak rozpoznanie twarzy, podniesienie ołówka, przejście przez pokój- faktycznie stanowią jedne z najtrudniejszych inżynieryjnych problemów… Gdy pojawi się nowa generacja inteligentnych urządzeń, to analitycy giełdowi, inżynierowie i ławnicy sądowi mogą zostać zastąpieni maszynami. Ogrodnicy, recepcjoniści i kucharze są zaś bezpieczni w najbliższych dekadach[3].

Co może się wydawać zaskakujące, najtrudniej zaprogramować te ludzkie umiejętności, których wykonywanie jest dla nas- ludzi- nieświadome. Marvin Minsky w swojej pracy podkreślił, że generalnie, najmniej jesteśmy świadomi tych rzeczy, które nasze umysły robią najlepiej. Jesteśmy bardziej świadomi prostych procesów, które nie działają dobrze, niż złożonych procesów, które działają bezbłędnie[4].

Zgodnie z paradoksem Moravec’a, wbrew powszechnemu mniemaniu rozumowanie wysokiego poziomu wymaga bardzo mało obliczeń w porównaniu z umiejętnościami sensomotorycznymi niskiego poziomu, które wymagają olbrzymich zasobów obliczeniowych. Zdaniem niektórych badaczy wyjaśnienie paradoksu Moravec’a można powiązać z lateralizacją mózgową i zróżnicowanymi funkcjami lewej i prawej półkuli ludzkiego mózgu[5].


[1] Pogląd ten znany pod pojęciem Paradoksu Moravec’a sformułowali w latach 80. XX wieku m.in. Hans Moravec, Rodney Brooks oraz Marvin Minsky.

[2] Moravec H.P., Mind Children, Harvard University Press, 1988.

[3] Pinker S., The Language Instinct, Harper Perennial Modern Classics, 2007.

[4] Minsky M.,The Society of Mind, Simon and Schuster1986.

[5] Rotenberg V.S., Moravec’s Paradox, Activitas Nervosa Superior, 2013.

Ewolucyjna ścieżka ludzkich umiejętności 

Możliwego wytłumaczenia paradoksu Moravec’a może nam dostarczyć teoria ewolucji. Zgodnie z jej podstawowymi założeniami wszystkie nasze ludzkie umiejętności są oparte na biologii i wykorzystują maszynerię powstałą w procesie selekcji naturalnej, która przez miliony lat faworyzowała ulepszenia i optymalizacje w organizmie człowieka. Należy ocenić, że im starsza jest jakaś nasza umiejętność, tym więcej czasu trwało jej ulepszanie. 

Ludzki mózg stale analizuje otaczający człowieka świat i stąd nasze reakcje następują bez wysławiania konkretnego zagrożenia. Dzieje się tak wskutek wytrenowania połączeń nerwowych naszego mózgu w toku milionów lat ewolucji. Na tym polu AI ciągle dużo gorzej radzi sobie od człowieka. Analiza danych przez AI, która ma prowadzić do prawidłowego „zrozumienia” otaczającego nas świata wymaga złożonych procesów, których poziom skomplikowania jest nieporównywalnie wyższy od tzw. wysokopoziomowego rozumowania, jak rozwiązywanie testów na inteligencję, analiza matematyczna, zaawansowana gra w szachy. 

Podsumowując, AI musi wytrenować umiejętności, z którymi człowiek już się rodzi.

Trudność w odtworzeniu przez AI konkretnej ludzkiej umiejętności będzie proporcjonalna do czasu, przez jaki ta umiejętność ewoluowała u zwierząt, a następnie u ludzi. Najstarsze ewolucyjnie umiejętności są bowiem w większości nieświadome dla człowieka i ludzie wykonują je bez wysiłku.

Wśród umiejętności, które ewoluowały przez miliony lat, można wyróżnić poruszanie się, chwytanie przedmiotów, rozpoznawanie głosu i twarzy, ale też zdolności społeczne, takie jak ustalanie celów działania lub ocena ludzkich motywacji.

Przykładami umiejętności, które pojawiły się niedawno na osi czasu ewolucyjnego rozwoju gatunku ludzkiego są matematyka, inżynieria, logika oraz nauka. Człowiek miał zaledwie kilka tysięcy lat na ulepszanie tych umiejętności, głównie w drodze ewolucji kulturowej.

Myślenie abstrakcyjne rozwinęło się stosunkowo niedawno na skali ewolucji gatunku ludzkiego i w konsekwencji nie powinniśmy oczekiwać, żeby jego implementacja była szczególnie efektywna. Moravec doszedł do wniosku, że w ośrodkach zmysłowych i motorycznych ludzkiego mózgu zakodowane jest miliard lat doświadczenia o naturze świata i o tym, jak w nim przetrwać. Świadomy proces, który nazywamy myśleniem stanowi cieniutką warstewką ludzkich myśli, efektywną tylko dzięki wsparciu o wiele starszej i o wiele potężniejszej, choć zwykle nieuświadomionej, wiedzy motorycznej. Jesteśmy wszyscy wybitnymi olimpijczykami w dziedzinie percepcji i zdolności motorycznych, tak dobrymi, że trudne zadania wydają nam się łatwe. Myśl abstrakcyjna jednak jest nową zdolnością, być może młodszą niż 100 tysięcy lat. Nie opanowaliśmy jej jeszcze dobrze. Nie jest ona sama z siebie wcale trudna – tylko taka się wydaje, gdy my ją wykonujemy[1].

Aktualnie wielu badaczy w swoich analizach koncentruje się na samej świadomości. Niewątpliwie potrafimy wskazać różnicę pomiędzy inteligencją a świadomością. Współczesne komputery oraz systemy sztucznej inteligencji od dawna mają przewagę nad ludzkim umysłem w zakresie pojemności pamięci oraz szybkości liczenia. Natomiast nie ma dotychczas żadnych przekonywujących dowodów na to, aby sama kwestia umiejętności liczenia oraz pojemności pamięci dawała robotom zdolność do samoświadomości. Tak naprawdę nie jesteśmy w stanie tego dobrze zdefiniować[2].

[1] Moravec H.P., Mind Children (…).

[2] Zobacz: https://pl.aleteia.org/2021/03/18/czy-roboty-i-sztuczna-inteligencja-zastapia-wszystko-w-tej-chwili-spalbym-spokojnie-wywiad/

Znaczenie paradoksu Moravec’a dla organizacji

Pomimo, że od sformułowania przez Moravec’a jego twierdzeń minęło już wiele lat, uznać należy, że nadal pozostają one aktualne. Oczywiście na odkrycie to niewątpliwie miał wpływ ówczesny etap rozwoju AI, nieporównywalnie mniej zaawansowanej w stosunku do dzisiejszego stanu nauki w tym obszarze. Na ustalenia te miały też wpływ stosunkowo mała moc obliczeniowa i pojemność pamięci ówczesnych komputerów, zbyt mały zasób danych udostępnionych sztucznej inteligencji lub też ograniczenie oprogramowania w pewnych zakresach, np. do logiki klasycznej. W głównej jednak mierze podstawowe założenia sformułowane przez Moravec’a należy uznać za aktualne. Przy ocenie możliwości wdrożenia AI w organizacjach oraz wyborze obszarów jej zastosowania opisany paradoks powinien zostać wzięty pod uwagę.

Skuteczność AI można oceniać w relacji do tego, jak sobie radzi w porównaniu z funkcjonowaniem ludzkiego umysłu. Jak już wskazano wyżej, w odniesieniu do przeprowadzania procesów obliczeniowych, ich prędkości oraz jakości, AI jest nieporównywalnie doskonalsza od ludzkiego mózgu. Z kolei na poziomie myślenia abstrakcyjnego, wymaganego dla przykładu w obszarze tłumaczenia treści literackich na inne języki człowiek nadal wykazuje większe zdolności. Pomimo, że w diagnostyce medycznej, polegającej na zdolności analizy obrazu, AI jest zdolna porównać tysiące obrazów i wskazać na konkretne jednostki chorobowe w czasie, który lekarzom zająłby miesiące, to nadal w obszarach takich jak obsługa klienta, bazująca na jakości interakcji z drugim człowiekiem oraz budowaniu relacji w czasie, kontakt międzyludzki nadal jest niezastąpiony. 

Można zatem wnioskować, że zastąpienie przez AI pracowników w obszarach funkcjonowania organizacji wymagających ludzkiej intuicji lub opartych na ludzkich interakcjach będzie trudne jeszcze przez długi czas. Dobra stroną tej sytuacji jest fakt, że są to zazwyczaj stanowiska, które nie generują wysokich kosztów zatrudnienia. Z kolei wykorzystanie AI do działań dotychczas wykonywanych przez pracowników w obszarach wymagających głębokiego analitycznego myślenia pozwoli organizacjom w dłuższym przedziale czasowym zaoszczędzić na zatrudnieniu wysoko wykwalifikowanego personelu.

AI jako innowacja technologiczna w branży telekomunikacyjnej

Rozwój sztucznej inteligencji stwarza nowe możliwości dla rozwoju branży telekomunikacyjnej. Przedsiębiorcy telekomunikacyjni wykorzystują algorytmy AI do projektowania sieci, poprawy obsługi klienta, usprawniania i automatyzacji procesów biznesowych oraz w celu optymalizacji infrastruktury sieciowej. Aplikacje AI stanowią siłę napędową innowacji w ramach przechodzenia na wirtualne sieci 5G, z kolei infrastruktura światłowodowa i sieci 5G przyspieszają cyfryzację usług i procesów przemysłowych, umożliwiając szybką ekspansję Internetu rzeczy (IoT). Zaawansowane algorytmy sztucznej inteligencji są wykorzystywane do opracowywania systemów informatycznych wspomagających procesy projektowania sieci 5G, co ma na celu skrócenie czasu planowania i budowy tych sieci. Przewiduje się również, że operatorzy telekomunikacyjni będą aktywnie wdrażać sztuczną inteligencję, aby poprawić funkcjonowanie swojej infrastruktury sieciowej. AI wspomaga optymalizację pracy sieci, zwłaszcza w obszarze cyberbezpieczeństwa, a także stwarza możliwość przewidywania anomalii w pracy sieci oraz uruchamiania mechanizmów automatycznego przekierowywania ruchu za pomocą systemów monitorowania wspomaganych systemami sztucznej inteligencji. Dzięki aplikacjom AI wzrasta wykorzystywanie funkcji samooptymalizacji sieci przez przedsiębiorców telekomunikacyjnych, jest też możliwe zapobieganie awariom urządzeń i systemów zanim one wystąpią (ang. predictive maintenance) na podstawie analiz danych historycznych. Wysoce korzystne dla branży telekomunikacyjnej są również rozwiązania oparte na AI pozwalające na monitorowanie stopnia eksploatacji urządzeń telekomunikacyjnych, co zezwala na szacunkową ocenę czasu oraz miejsc wystąpienia potencjalnych awarii. Dodatkowo wdrażanie innowacji AI w zakresie poprawy efektywności energetycznej sieci telekomunikacyjnych, doskonalenia systemów billingowych, czy też automatyzacji procesów biznesowych (RPA – Robotic Process Automation) wydaje się zyskiwać coraz większe znaczenie[1]

Powyższe obszary zastosowania AI, w kontekście opisanego wyżej paradoksu Moravec’a, sugerują możliwość jej wprowadzenia z dużym sukcesem.

W kontekście wciąż występujących większych utrudnień w prawidłowym zastosowaniu AI do relacji z klientem można spodziewać się mniejszych sukcesów we wprowadzaniu innowacji w obsłudze call center, gdzie AI i programowanie neurolingwistyczne NLP (neuro-linguistic programming) są wykorzystywane do analizowania wiadomości wysyłanych przez klientów do call center czy też notatek sporządzonych przez agentów call center, w celu poprawy jakości obsługi klienta. 

Wciąż aktualne są zatem obawy prawidłowości działania AI w obszarze spersonalizowanej interakcji cyfrowej z klientem, skuteczności współpracy z klientem wirtualnych asystentów i chatbotów na poziomie realnego rozwiązywania problemów związanych z obsługą odbiorców usług telekomunikacyjnych.

[1] Zobacz: https://www.suntech.pl/pl/aktualnosci/1363-algorytmy-ai-wspomagaja-telekomy

AI ACT- Paradoks Moravec’a w odniesieniu do aktu w sprawie sztucznej inteligencji

Komisja Europejska w 2021 r. skierowała wniosek do Parlamentu Europejskiego i Rady w sprawie rozporządzenia ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji[1]. Do dziś AI Act nie uzyskał ostatecznego kształtu, głównie z uwagi na skomplikowanie przedmiotu jego materii oraz ilość zagadnień powiązanych, które należy uregulować. Wśród obszarów newralgicznych znajdują się przepisy odnoszące się do zagrożeń związanych ze stosowaniem AI. Wniosek regulacyjny Komisji Europejskiej ma na celu zapewnienie ustalenia twórcom sztucznej inteligencji, podmiotom wdrażającym AI jak i jej użytkownikom jasnych wymogów i obowiązków dotyczących konkretnych zastosowań sztucznej inteligencji. 

Proponowane rozporządzenie w sprawie sztucznej inteligencji ma na celu zapewnienie obywatelom UE zaufania do tego, co AI ma do zaoferowania. Projektowane przepisy służą przeciwdziałaniu ryzykom stwarzanym przez aplikacje sztucznej inteligencji, poprzez sporządzenie wykazu zastosowań wysokiego ryzyka, określenie jasnych wymogów dla systemów sztucznej inteligencji, wskazanie szczególnych obowiązków użytkowników sztucznej inteligencji i dostawców aplikacji wysokiego ryzyka oraz wprowadzenie wymogu oceny zgodności przed oddaniem systemu sztucznej inteligencji do użytku lub wprowadzeniem do obrotu. 

Ramy regulacyjne określają cztery poziomy ryzyka w obszarze stosowania sztucznej inteligencji: niedopuszczalne ryzyko, wysokie ryzyko, ograniczone ryzyko, minimalne ryzyko wraz z obszarem bez ryzyka. Jako niedopuszczalne ryzyko określa się wszystkie systemy sztucznej inteligencji uważane za wyraźne zagrożenie dla bezpieczeństwa powszechnego oraz praw człowieka. Systemy sztucznej inteligencji zidentyfikowane jako systemy wysokiego ryzyka obejmują technologię sztucznej inteligencji stosowaną w infrastrukturze krytycznej (np. transporcie), która mogłaby narazić życie i zdrowie obywateli. Ponadto w obszarze wysokiego ryzyka ujmuje się stosowanie AI w kształceniu lub szkoleniu zawodowym (które może decydować o dostępie do edukacji i przebiegu życia zawodowego), elementy bezpieczeństwa produktów (np. zastosowanie sztucznej inteligencji w chirurgii wspomaganej robotem), zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia (np. w postaci oprogramowania do sortowania CV w procedurach rekrutacyjnych). Do systemów wysokiego ryzyka zaliczono ponadto takie usługi jak punktacja kredytowa odmawiająca obywatelom możliwości uzyskania pożyczki, systemy egzekwowania prawa, które mogą ingerować w prawa podstawowe obywateli (np. polegające na ocenie wiarygodności dowodów), zarządzanie migracją, azylem i kontrolą graniczną (np. poprzez weryfikację autentyczności dokumentów podróży), administrowanie wymiarem sprawiedliwości i procesami demokratycznymi (np. poprzez stosowanie prawa do konkretnego zestawu faktów).

Systemy sztucznej inteligencji w powyższych obszarach, jako systemy AI wysokiego ryzyka będą podlegać ścisłym obowiązkom, zanim będą mogły zostać wprowadzone do obrotu, poprzez zastosowanie odpowiednich sposobów oceny ryzyka i jego ograniczania, wprowadzenie wymogu wysokiej jakości zbiorów danych zasilających system, rejestrowanie działalności AI w celu zapewnienia identyfikowalności wyników, obowiązek prowadzenia szczegółowej dokumentacji zawierającej wszelkie informacje na temat systemu i jego celu. Wymogiem będzie również dostępność jasnych i odpowiednich informacji dla użytkownika sztucznej inteligencji oraz odpowiednie środki nadzoru ze strony człowieka w celu zminimalizowania wszelkich ryzyk. 

AI Act wskazuje na swobodne stosowanie sztucznej inteligencji o minimalnym ryzyku, do których zalicza aplikacje takie jak gry wideo z obsługą AI lub filtry spamu. Zdecydowana większość systemów sztucznej inteligencji stosowanych obecnie w UE należy do tej kategorii.

Obszary zaklasyfikowane przez organy UE jako systemy wysokiego ryzyka przy wykorzystaniu AI zdają się odpowiadać tym wskazanym przez Moravec’a jako strefy działania AI związane z koniecznością wykorzystania właściwych dla gatunku ludzkiego cech w obszarach niskopoziomowej percepcji, przetwarzania sensorycznego i zdolności motorycznych, a których wdrożenie w obszarze AI wymaga znacznych mocy obliczeniowych.

Wydaje się zasadnym stwierdzenie, że te obszary zastosowania AI, które paradoks Moravec’a określa jako wymagające cech lub umiejętności przynależnych do człowieka, w postaci intuicji, percepcji lub zdolności motorycznych należy kwalifikować jako obszary wysokiego ryzyka. Obszary dostrzeżone przez UE w AI Act jako zmniejszonego ryzyka lub minimalnego ryzyka, pokrywają się z zagadnieniami opisywanymi przez Moravec’a jako rozumowanie wysokiego poziomu, wymagające bardzo mało obliczeń ze strony AI.

Reasumując, działanie organów UE mające na celu ścisłe zabezpieczenie prawne użytkowników sztucznej inteligencji jest więc jak najbardziej działaniem prawidłowym, co pośrednio wykazuje aktualność twierdzeń, nazywanych paradoksem Moravec’a.


[1] https://eur-lex.europa.eu/legal-content/PL/TXT/?uri=celex%3A52021PC0206