ROZMOWY PRZED KRYNICA FORUM 2023

Prof. Paweł Skruch, AGH i Centrum Techniczne Aptiv: Strach przed AI bierze się z braku świadomości


„Musimy się nauczyć umiejętnie, rozsądnie używać sztucznej inteligencji, bo jeżeli będziemy jej używać w sposób bezmyślny, albo przyjmować jako pewnik to, co zasugeruje nam chat, to na pewno nie będzie z tego nic dobrego” - mówi dr hab. inż. prof. AGH Paweł Skruch z Wydziału Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Akademii Górniczo-Hutniczej w Krakowie, kierownik i główny inżynier AI/ML w Centrum Technicznym Aptiv.


Dynamiczny rozwój modeli językowych, takich jak popularny Chat GPT, wzbudził strach przed AI u wielu ekspertów i u zwykłych ludzi. Czy z pana perspektywy jako osoby, która zajmuje się zawodowo sztuczną inteligencją, jest się czego bać?

Kiedy słyszę takie sformułowania, że sztuczna inteligencja w najbliższej przyszłości może zagrozić różnym aspektom naszego życia, to zawsze zastanawiam się, skąd ta obawa wynika. Wśród osób, z którymi współpracuję i które próbują wykorzystywać metody oparte o sztuczną inteligencję do zastosowań praktycznych, traktujemy AI raczej jako narzędzie, które oferuje i w przyszłości będzie oferować ogrom możliwości, które pomoże nam w rozwiązywaniu różnego rodzaju problemów i przyczyni się do rozwoju szeroko rozumianych dyscyplin naukowych i technicznych. Dlatego uważam, że nie należy postrzegać sztucznej inteligencji jako czegoś potencjalnie „złego”, co może namieszać w naszym świecie. Trzeba nauczyć się, w jaki sposób efektywnie wykorzystać AI, bo wszelkie obawy wynikają chyba z braku świadomości co do tego, jak te algorytmy – bo to nic innego niż algorytmy – funkcjonują. Teraz pojawiło się duże zainteresowanie rozwiązaniami typu Chat GPT, ale patrząc od strony technicznej, rozwiązania, które opierają się na sieciach neuronowych, a takim właśnie rozwiązaniem jest Chat GPT, istniały od wielu lat i są powszechnie wykorzystywane w wielu aspektach życia codziennego.

A co z rynkiem pracy? W tym obszarze pojawiają się obawy dotyczącego tego, że AI wyeliminuje zapotrzebowanie na pewne prace wykonywane przez człowieka.

Ten proces jest nieunikniony. Ale tak jest w przypadku każdej, nowej technologii, która pozwala wykonywać określone aktywności szybciej, lepiej i przy mniejszym nakładzie wysiłku i kosztów. Jestem przekonany, że w najbliższym czasie wiele stanowisk, szczególnie takie, które są związane z prostymi zadaniami, zostanie na pewno zastąpionych przez tego rodzaju algorytmy. Ja bym się tego jednak nie obawiał. Nowe technologie powodują, że pewne zawody zanikają, ale rozwój tych technologii powoduje też, że pojawiają się inne możliwości dla człowieka.

Wyrazem obaw, o których rozmawiamy, są różnego rodzaju reglamentacje dotyczące AI. W niektórych firmach czy na uczelniach pojawia się zakaz używania sztucznej inteligencji generatywnej. Elon Musk wraz z rzeszą ekspertów postulował czasowe wstrzymanie prac na modelami językowymi, aby stworzyć przestrzeń do namysłu na temat regulacji. Pana zdaniem potrzebujemy takiej przerwy w rozwoju AI?

Jestem przeciwny wszelkim tego typu regulacjom, w szczególności, jeżeli chodzi o postęp technologiczny, z tego względu, że takie regulacje w żaden sposób nie zatrzymają tego postępu. Jeżeli będziemy na siłę próbowali powstrzymać rozwój pewnych obszarów mających na celu zwiększenie możliwości algorytmów opartych na sztucznej inteligencji, to możemy osiągnąć przeciwny efekt. Regulacje są potrzebne, ale w trochę innym kontekście. Jeżeli chcemy wykorzystać takie algorytmy np. do podejmowania decyzji, które są kluczowe dla bezpieczeństwa, to regulacje mogą okazać się konieczne.

Przykłady?

Chodzi na przykład o sytuację, w której AI znajduje zastosowanie w samochodach autonomicznych, gdzie algorytmy wykorzystuje się do sterowania autem. To obszar, który wiąże się z bezpieczeństwem pasażera i innych uczestników ruchu. Inny przykład, to zastosowanie sztucznej inteligencji do inwestowania naszych pieniędzy. W tym zakresie AI wskaże nam pewne rozwiązania, ale one mogą być nie do końca poprawne, bo tak działają te algorytmy. One aproksymują pewne decyzje, bazując na zdobytej wiedzy. Regulacje są więc potrzebne po to, aby ustalić, w jaki sposób tego rodzaju rozwiązania muszą być weryfikowane i testowane, aby mogły być wykorzystywane poprawnie. 

Obecnie sprowadzany dyskusję o AI do Chatu GPT oraz jego kolejnych, ulepszonych wersji. Czy spory o potencjalne zagrożenia związane z tak rozumianą sztuczną inteligencją nie przesłaniają innych – być może ważniejszych - obszarów zastosowania AI?

Na pewno tak jest. Postrzegamy teraz sztuczną inteligencję przez pryzmat rozwiązań takich jak Chat GPT, a pomijamy inne obszary, gdzie AI dobrze się sprawdza i jest obecna w naszym codziennym życiu, nawet jeśli nie zdajemy sobie z tego sprawy. Sztucznej inteligencji jest dużo w każdym smartfonie i we wszelkich aplikacjach, z których korzystamy. Jest jej też coraz więcej w samochodach, którymi się poruszamy. Jeżeli korzystamy z urządzeń takich jak ekspresy do kawy, lodówki czy odkurzacze, to tam również obecne jest AI i tego jakoś się nie boimy. Jeszcze raz podkreślam, że strach bierze się z braku świadomości.

Jak pana zdaniem może wyglądać budowanie wspomnianej świadomości? Powinniśmy zacząć już od edukacji dzieci w szkołach z myślą o wyzwaniach świata ze sztuczną inteligencją?

Zdecydowanie tak, zwłaszcza, że rozwój nowych technologii zmienia sposób pozyskiwania, gromadzenia i przetwarzania wiedzy. W związku z tym – w mojej ocenie - standardy nauczania od szkoły podstawowej po szkołę średnią przestają być aktualne w kontekście tego, co oferują nowe możliwości technologiczne. Dlatego musimy zmienić pod tym kątem cały sposób myślenia i nauczania młodego pokolenia. To dotyczy też dorosłych. Musimy się nauczyć umiejętnie, rozsądnie używać sztucznej inteligencji, bo jeżeli będziemy jej używać w sposób bezmyślny, albo przyjmować jako pewnik to, co zasugeruje nam chat, to na pewno nie będzie z tego nic dobrego. I tu istnieje uzasadnione obawa, że bezmyślne korzystanie z AI może prowadzić do zagrożeń, bo pewne decyzje dyktowane przez sztuczną inteligencję, mogą nie mieć realnego uzasadnienia. Jeśli nie będziemy zdawać sobie z tego sprawy, to zabrniemy w ślepy zaułek. To bardzo istotne kwestie, dlatego wyzwania związane z AI będą jednym z wątków poruszonych podczas Krynica Forum 2023. 


Sztuczna inteligencja, internet rzeczy, automatyzacja, sieci 6G i wyzwania z nimi związane będą niewątpliwie jednym z najgorętszych tematów Krynica Forum 2023. Prof. Paweł Skruch będzie uczestniczył w tej dyskusji.

Zapisz się do newslettera