Surma: próba replikacji człowieka poprzez sztuczną inteligencję to mrzonka
– Ta silna sztuczna inteligencja, często nazywana w literaturze general artificial intelligence, to są właśnie te mrzonki, o których tutaj mówił profesor Kisielewicz – próba replikacji człowieka. Ten nurt, ta narracja, którą tutaj pan redaktor wprowadził na samym początku, na dzisiaj w kontekście naukowym nie istnieje. To jest science fiction – mówił podczas XII Kongresu Polska Wielki Projekt profesor Jerzy Surma, profesor nadzwyczajny w Instytucie Informatyki i Gospodarki Cyfrowej SGH oraz kierownik studiów podyplomowych Zarządzanie Cyberbezpieczeństwem.
Prof. Łukasz Surma brał udział w panelu „Sztuczna inteligencja – szanse i zagrożenia”, który odbył się w ramach XII Kongresu Polska Wielki Projekt. Uczestniczyli w nim również: Andrzej Kisielewicz, profesor nauk matematycznych, autor ponad 80 artykułów naukowych opublikowanych w renomowanych pismach zagranicznych z zakresu matematyki, logiki i informatyki, oraz trzech książek, Andrzej Zybertowicz, socjolog, analityk, konsultant polityczny, profesor nauk społecznych, doradca Prezydenta RP Andrzeja Dudy.
Profesor Surma zaczął od zdefiniowania pojęć. „Jak się mówi o tych zagadnieniach, to w kontekście tego bełkotu, który jest w mainstreamie, dobrze jest definiować pojęcia. W kontekście tego, co powiedział profesor Kisielewicz, niezwykle ważne jest rozumienie – w Stanach Zjednoczonych jest taki podręcznik do sztucznej inteligencji Artificial Intelligence, napisany przez Petera Norviga. To jest taka książka około siedemset stron i powiedziałbym, że każdy w tej branży musi to znać, bo ludzie się odwołują do tej książki. On tam we wstępie zrobił dokładnie to, o czym mówił profesor Kisielewicz – podzielił sztuczną inteligencję na tak zwaną strong AI i weak AI. Ta silna sztuczna inteligencja, często nazywana w literaturze general artificial intelligence, to są właśnie te mrzonki, o których tutaj mówił profesor Kisielewicz – próba replikacji człowieka. Ten nurt, ta narracja, którą tutaj pan redaktor wprowadził na samym początku, na dzisiaj w kontekście naukowym nie istnieje. To jest science fiction i od wielu lat są podejmowane próby, żeby coś takiego zrobić, ale to się nie udaje. Natomiast mamy ten zupełnie niezwykły – mówię o ostatnich dziesięciu latach – i bardzo intensywny wzrost wąskiej sztucznej inteligencji. Na to się mówi: single domain solution, czyli mamy ściśle określone zadania, jesteśmy w stanie znaleźć algorytmy, jesteśmy w stanie znaleźć rozwiązania, bo algorytmy, które rozwiązują te zadania, często same się tworzą w procesie uczenia. Tutaj była bardzo słuszna uwaga profesora Zybertowicza – one wcale nie muszą być lepsze od człowieka. Czasami jak się uzyskuje odpowiedni poziom przyzwoitości takiego algorytmu, to to już wystarcza. Coś takiego osiągnięto właśnie w kontekście rozwoju deep learning, kiedy były pierwsze zastosowania. Rozpoznawanie na zdjęciach obiektów – czyli czy na zdjęciu jest samochód, kot, pies, drzewo – okazało się, że jeszcze dwanaście lat temu systemy tego typu popełniały błędy na poziomie dwudziestu pięciu do trzydziestu procent. Co to oznacza? Że mam samochód autonomiczny i on tak co trzeci znak przestrzeli. Oczywiście to jest absurd, żeby to stosować w praktyce, w ogóle nie było zainteresowania światu biznesu na poważnie tymi zastosowaniami” – zaznaczył.
„Tak na marginesie, robiono takie badania na ludziach, jak rozpoznają określone zbiory danych, i wyszło, że ludzie popełniają błędy na poziomie trzech procent, czyli trzy zdjęcia na sto nie trafią. Google zainteresowało się tym podejściem i de facto wykupiło firmę, która nad tym pracowała, w momencie, kiedy dokładność klasyfikacji tych systemów zeszła do poziomu siedmiu procent. Oni już zobaczyli, że wcale nie mają maszynki lepszej od człowieka, ale są w stanie zautomatyzować dziesiątki procesów, które mają wewnątrz tej całej swojej architektury. Czyli na koniec dnia mamy automatyzację procesów, zwykle biznesowych, które funkcjonują już na takim poziomie doskonałości, że są w stanie zastąpić człowieka i przy odpowiednio dużej skali przetwarzanych danych cudownie funkcjonować. Z tymi systemami jest taka, „cudowna własność”, że one pracują 24/7, nie proszą o podwyżkę, nie narzekają, nie wyjeżdżają na urlop i w zasadzie trzeba im tylko dać energię elektryczną, odpowiednią temperaturę i wilgotność powietrza w pomieszczeniu, żeby te serwery się dobrze kręciły – wtedy one są w stanie bardzo efektywnie pracować. Kończąc ten wątek – sektor finansowy w Polsce to jest w skali świata jeden z najbardziej zaawansowanych sektorów, jeśli chodzi o wykorzystanie zaawansowanych technik maszynowego uczenia się w praktyce biznesowej. Tego typu systemy są stosowane na potęgę – to się w biznesie nazywa: „transformacja cyfrowa”. Nagle się okazuje, że my prawie nie chodzimy do oddziałów banku, papierowa waluta w zasadzie zaczyna wymierać i większość tych operacji funkcjonuje w świecie cyfrowym, a w tle de facto nie mamy ludzi, tylko właśnie systemy, które są w stanie zrobić zupełnie automatycznie analizę kondycji finansowej danej osoby, ocenić jej zdolność kredytową. Tak na marginesie – jak myślę o tym szerzej, nawiązując do tego, co mówił profesor Zybertowicz, to pamiętam, jak w drugim miesiącu epidemii, czyli dwa lata temu, uświadomiłem sobie, że jeślibyśmy nie mieli internetu i tak silnie ucyfrowionego świata, w którym funkcjonujemy, to my jako państwo i de facto cała Europa nie bylibyśmy w stanie w ogóle normalnie przeżyć tego okresu” – dodał.
Social media