Inteligentne roboty – czy to już?

Adobe Stock - metamorworks

Roboty przemysłowe są coraz zręczniejsze i bardziej elastyczne, ale czy potrafią już same myśleć? Jeśli nie – jak odległą perspektywą jest wdrożenie sztucznej inteligencję na liniach produkcyjnych?

Co do tego, że sztuczna inteligencja (ang. Artificial Intelligence, AI) i robotyka w przyszłości będą ze sobą nierozerwalnie związane, nikt nie ma wątpliwości. Ich implementacja może dać przedsiębiorcom wiele korzyści, wpływając na lepszą jakość wyrobów i usług, wzrost produktywności, poprawę bezpieczeństwa pracowników, ujednolicenie stosowanych rozwiązań czy mniejszą ilość odpadów.

Już ponad 3,2 tys. firm na całym świecie prowadzi prace nad sztuczną inteligencją, a wśród nich tacy światowi giganci jak Google, LG, Microsoft, IBM, Amazon, Intel czy Samsung. Sztuczna inteligencja Google’a potrafi już stworzyć własną sztuczną inteligencję, z kolei LG zaprezentowało napędzane AI roboty.

Jak podkreśla Pavel Bezucky, area sales manager CEE w Universal Robots, sztuczna inteligencja i uczenie maszynowe są cały czas badane przez firmy robotyczne i wykorzystywane w nowoczesnych maszynach. – Dzięki zaawansowanej inteligencji roboty będą w stanie zorientować się, że proces nie jest realizowany właściwie, i zatrzymać się w odpowiednim momencie, zidentyfikować obszary, w których ich działanie może być zoptymalizowane, oraz zbierać i analizować dane w celu ulepszania procesu w przyszłości – wyjaśnia Bezucky.

Robert Pacwa, kierownik działu sprzedaży i marketingu polskiego oddziału robotyki ABB, przyznaje, że nie tylko opcje hardware’owe, ale i software’owe w robotach przemysłowych mocno się rozwijają, ułatwiając zarówno programowanie, jak i stabilną pracę z procesami, które dawniej nie były możliwe do zrobotyzowania. – Z całą pewnością roboty nie potrafią same myśleć, ale potrafią widzieć poprzez systemy wizyjne, czuć poprzez czujniki siły, potrafią te dane przeanalizować i dostosowywać swoje ruchy w zależności od zmiennego otoczenia – mówi Pacwa i kontynuuje: – Sztuczna inteligencja będzie się stawać coraz bardziej zaawansowana w układach sterujących robotami, dzięki czemu doda elastyczności robotom i rozszerzy spektrum ich zastosowania. Jednak ta elastyczność wciąż zależeć będzie od decyzji człowieka.

Umiarkowany optymizm

Na silne powiązanie człowieka z robotem zwraca uwagę także Jędrzej Kowalczyk, prezes zarządu Fanuc Polska. Jak zaznacza, robot jest tylko narzędziem, przedłużeniem ludzkiej wizji, a nie samodzielnym i decydującym o sobie bytem. – Roboty to urządzenia mechaniczne stworzone przez człowieka. Nie wykonywałaby one powierzonych im czynności tak perfekcyjnie, gdyby nie zostały obdarzone optymalnie dobraną do potrzeb konstrukcją i wyposażone w oprogramowanie stworzone przez człowieka – wyjaśnia.

Mimo dynamicznego rozwoju robotyki – zauważa Kowalczyk – do dziś nie powstał jeszcze żaden komputer, który potrafiłby wymyślić inny komputer i przejąć nad nim kontrolę. Za to ludzie w zaledwie 60 lat wykreowali niezliczone ilości robotów i z powodzeniem wykorzystują je do realizacji różnorodnych zadań w każdym obszarze życia.

Aby zobrazować problem z myśleniem robotów, prezes Fanuc Polska posługuje się przykładami opisanymi w książce „Fizyka przyszłości”, której autorem jest Michio Kaku. Ten amerykański fizyk japońskiego pochodzenia zauważył, że z robotami jest jeden problem: nie mają ludzkiego poczucia sensu. A poza tym, choć roboty mogą słyszeć znacznie lepiej niż ludzie, to nie rozumieją tego, co słyszą.

Kiedy człowiek wchodzi do pokoju, w ułamku sekundy rozpoznaje krzesła, biurka czy stoły. Robot dokonuje konwersji obrazu na zbiory linii, kół, kwadratów, prostokątów. Potem próbuje dopasować mętlik danych na zasadzie „każdy z każdym”, porównując do obiektów zapisanych w swojej pamięci. Dopiero po wielu godzinach może dopasować punkty do krzeseł, stołów bądź ludzi – tłumaczy Kowalczyk. – Gdy my słyszymy zdanie „Sznurki można ciągnąć, ale nie pchać”, to od razu wiemy, że to oczywiste i zgodne ze zdrowym rozsądkiem. A robot tego nie wie, bo nie może oprzeć się na żadnym programie, który to udowodni. Wciąż potrzeba zbyt wielu linii kodu dla uzyskania symulacji ludzkiego poczucia sensu – twierdzi.

Wojciech Łaś, menedżer produktu w firmie Mitsubishi Electric, także nieco studzi nastroje, jeśli chodzi o rozwój robotów. Jego zdaniem perspektywa myślących robotów wydaje się bardzo odległa. – Również określenie „sztuczna inteligencja” jest często używane na wyrost – twierdzi. – W dzisiejszej robotyce mówimy raczej o uczeniu maszynowym, czyli dostosowywaniu parametrów pracy na podstawie zebranych doświadczeń lub znajdywaniu zależności między parametrami pracy, co jest wykorzystywane np. do wczesnego wykrywania awarii, czyli predykcyjnego utrzymania ruchu. Ciągle jednak roboty przemysłowe pozostają automatami nieświadomymi swojego otoczenia i wymagają zaprogramowania i jasnego określenia ich zadań. Trudno tu więc mówić o sztucznej inteligencji, są to jedynie bardziej wyrafinowane algorytmy – podsumowuje.

Tagi artykułu

Zobacz również

Chcesz otrzymać nasze czasopismo?

Zamów prenumeratę