Sztuczna inteligencja coraz bardziej autonomiczna. Niezbędne odpowiednie prawo

Pixabay

Trwa wyścig zbrojeń w zakresie sztucznej inteligencji. Europa, aby dogonić USA i Chiny – potentatów na tym polu – planuje rocznie wydać na SI niemal 20 mld euro. Jednak inwestowanie w sztuczną inteligencję musi pociągnąć za sobą kształtowanie odpowiednich przepisów prawa regulujących ten obszar. 

Upowszechnienie rozwiązań bazujących na sztucznej inteligencji, w tym m.in. robotów, to jednak nie tylko korzyści, lecz także poważne zagrożenia. Obok cyberataków czy kradzieży danych sztuczna inteligencja mogłaby zostać wykorzystana do inwigilacji i propagandy. Autonomiczne roboty mogłyby też zostać wykorzystane jako śmiercionośna broń. Potrzebne jest stworzenie odpowiednich ram prawnych, które będą regulowały odpowiedzialność za SI i kwestie etyczne – podkreślają eksperci.

Prawo dotyczące sztucznej inteligencji powinno regulować dwa znaczące obszary: z jednej strony kwestie odpowiedzialności za działania sztucznej inteligencji, a z drugiej kwestie etyczne, czyli w jaki sposób sztuczna inteligencja ma się zachowywać, żeby w którymś momencie nie zaczęła krzywdzić człowieka czy ludzkości – mówi dr Agnieszka Besiekierska, szefowa Praktyki Digitalizacji Biznesu Kancelarii Noerr.

SI w przyszłości może stanowić o przewadze gospodarczej poszczególnych krajów. Europa na tym polu zostawała w tyle – w dużej mierze dlatego, że kraje rywalizowały ze sobą, zamiast współtworzyć nowe rozwiązania. Ma się to jednak zmienić. Unia Europejska zapowiada aktywizację działań w obszarze sztucznej inteligencji, co roku na ten cel ma trafiać 20 mld euro. Na tle potęg to wciąż niewiele – raport Digital Poland „Przegląd strategii rozwoju sztucznej inteligencji na świecie” podaje, że Chiny na rozwój AI w 2017 r. wydadzą 28 mld dol. W USA tylko na jawne badania nad SI rząd wydał w 2016 r. 1,2 mld dol., a dodatkowe 30 mld dol. stanowiły inwestycje sektora prywatnego.

W Europie jest kładziony nacisk z jednej strony na wspieranie rozwoju sztucznej inteligencji poprzez nadanie pewnych ram prawnych, swego rodzaju bodźców do rozwoju sztucznej inteligencji - takim obszarem będą regulacje dotyczące danych osobowych, danych nieosobowych i własności do danych nieosobowych - a z drugiej strony jest też kwestia zapewnienia odpowiednich ram bezpieczeństwa dla nas samych, żeby sztuczna inteligencja w którymś momencie nam nie zagroziła – mówi dr Agnieszka Besiekierska.

Jak podkreślają eksperci, wydatki to jedno, ale równie istotne jest stworzenie odpowiednich ram prawnych dla rozwoju SI.

To są kwestie etyczne związane z użyciem sztucznej inteligencji, ale również zupełnie przyziemna kwestia odpowiedzialności, z jaką mamy do czynienia przy użyciu zwykłego pojazdu czy innej maszyny. Nowe rozwiązania różnią się od tradycyjnych technologii, bo tutaj wpływ człowieka na działania maszyny będzie w którymś momencie mniejszy, będzie on duży na etapie tworzenia rozwiązania, ale stopniowo będzie malał, bo ideą jest to, żeby to maszyna przejęła działania, zaczęła samodzielnie działać, a nawet podejmować decyzje – tłumaczy Agnieszka Besiekierska.

Raport „Złowrogie wykorzystanie sztucznej inteligencji” wskazuje, że ryzykiem w rozwoju SI jest możliwość jej użycia w złej wierze. Zagrożenia pojawiające się w sferze cyfrowej to np. kradzież danych i cyberataki. Potrzebne są też przepisy, które będą regulowały dane nieosobowe, równie istotne dla rozwoju sztucznej inteligencji. Zagrożenia są także natury politycznej i fizycznej. Dyktatorzy mogliby wykorzystywać SI do inwigilacji i dezinformacji, w czarnym scenariuszu – sztuczna inteligencja mogłaby zidentyfikować wrogów danego systemu i uwięzić ich, zanim podejmą jakiekolwiek działania.

Militarne roboty już są wykorzystywane, są to m.in. autonomiczne drony. W strefie zdemilitaryzowanej na granicy Korei Północnej i Południowej funkcjonuje działko typu Sentry Gun, które za pomocą wbudowanych czujników wykrywa, automatycznie namierza i likwiduje cel. Chińczycy zaś opracowują bezzałogowe łodzie podwodne wspierane sztuczną inteligencją. Pierwsze takie łodzie mogą wypłynąć już w 2020 r.

Autonomiczne roboty militarne mogłyby być wykorzystywane także do fizycznej eliminacji przeciwników. Już teraz 160 największych organizacji świata oraz ponad 2,4 tys. naukowców i ludzi związanych z branżą technologiczną podpisało petycję przeciwko robotom-zabójcom.

Źródło: Newseria

O Autorze

MM Magazyn Przemysłowy jest międzynarodową marką medialną należącą do holdingu Vogel Communications Group. W ramach marki MM Magazyn Przemysłowy wydawane jest czasopismo, prowadzony jest portal magazynprzemyslowy.pl oraz realizowana jest komunikacja (różnymi narzędziami marketingowymi) w przemysłowym sektorze B2B.

Tagi artykułu

Zobacz również

Chcesz otrzymać nasze czasopismo?

Zamów prenumeratę