reklama
kategoria: Kraj
2 marzec 2025

Potrzebujemy nowego prawa robotyki

zdjęcie: Potrzebujemy nowego prawa robotyki / fot. PAP
fot. PAP
Sztuczna inteligencja coraz lepiej udaje człowieka, co stwarza możliwości różnorodnych nadużyć – zauważył w rozmowie z PAP prof. dr hab. Dariusz Jemielniak z Akademii Leona Koźmińskiego, wiceprezes PAN. Jego zdaniem potrzebne jest rozszerzenie słynnych trzech praw robotyki o kolejne zmuszające SI do identyfikowania się.
REKLAMA

Według profesora rozpoczyna się czas, kiedy prawa robotyki - z domeny fantastyki naukowej - będą musiały przejść do świata realnego. Trzy słynne prawa robotyki (prawa Asimova) są następujące: jeden - robot nie może zranić człowieka ani przez zaniechanie działania dopuścić do jego nieszczęścia; dwa - robot musi być posłuszny człowiekowi, chyba że stoi to w sprzeczności z Pierwszym Prawem; trzy - robot musi dbać o siebie, o ile tylko nie stoi to w sprzeczności z pierwszym lub drugim prawem.

"Chyba właśnie nadchodzi ten moment. O ile kiedyś była to całkowita fikcja, o tyle teraz prawa robotyki zaczynają dotyczyć naszego codziennego życia. Może np. autonomiczny samochód nie będzie musiał decydować, czy przejechać zakonnicę, grupkę dzieci, czy dwóch wstawionych naukowców, ale może już być w sytuacji wymagającej decyzji, czy hamować i chronić kierowcę, czy gwałtownie skręcić, narażając go, ale np. chronić pieszych. Pierwsze prawo robotyki mówi, że robot ma nie krzywdzić ludzi" - mówił naukowiec z PAN.

Jednak prawa te nie muszą dotyczyć fizycznych maszyn – zastrzegł.

"Oryginalne prawa Asimova dotyczyły robotów fizycznych. Miało to dużo sensu, ponieważ zostały sformułowane ponad pół wieku temu, jako część świata science-fiction. Jednak w realnym świecie dzisiaj nie one nam sprawiają kłopoty. Roomba nas w domu nie zaatakuje. Problemy może jednak stwarzać sztuczna inteligencja i różnego rodzaju tzw. boty. Stąd mój pomysł i postulat wprowadzenia IV prawa robotyki, podchwycony już przez ważne czasopismo branżowe 'IEEE Spectrum'. Prawo to nakazuje prostą rzecz – aby wszelkiego rodzaju sztuczna inteligencja ujawniała się, że nią jest, i nie udawała człowieka. Obecnie mamy już sytuację, w której często nie udaje się prosto dokonać rozróżnienia. Jeśli pozwolimy im na swobodne działanie bez identyfikowania się, będziemy mieli coraz większy problem" – tłumaczył ekspert.

Nadużycia dokonywane z pomocą SI udającej człowieka mogą być różne – dodał.

"Weźmy na przykład tzw. oszustwo ‘na wnuczka’. Za sprawą SI powstają jego nowe odsłony. Ktoś może spotkać się z programem, który będzie miał twarz i głos jego prawdziwego wnuczka i paść ofiarą, np. wyłudzenia pieniędzy. Poza różnymi przestępstwami, SI może być wykorzystywana też na bardziej prozaiczne, aczkolwiek szkodliwe sposoby. Można wymienić np. nachalny marketing telefoniczny – dzięki sztucznej inteligencji firmy mogą dzwonić do ludzi minimalnym kosztem, a odbiorców kosztuje to cenny czas" – tłumaczył.

Niektórzy argumentują, że osoby chcące łamać prawo i tak nie zastosują się do przepisów, ale według prof. Jemielniaka to nie jest prawidłowy sposób rozumowania.

"Podam taki przykład – to, że przestępcy drukują fałszywe pieniądze, nie oznacza, że zakaz takiego czynu, w tym posiadania odpowiednich do tego materiałów, jest bezwartościowy. Odpowiednie prawo podnosi próg ryzyka dla oszustów. Muszą kalkulować, czy im się taki czyn opłaci. Inny przykład – zakaz posiadania broni może nie sprawi, że całkowicie zniknęły napaści z jej użyciem, jednak zdarzają się dużo rzadziej. Nie tylko trudniej jest o samą broń, ale rosną też konsekwencje prawne dla tego, kto ją nawet nielegalnie posiada" – podkreślił prof. Jemielniak.

Zdaniem profesora pierwsze prawo robotyki nie wystarczy. "Zabronienie SI krzywdzenia ludzi nie jest wystarczające. Jeśli głębiej tę kwestię przeanalizujemy, okaże się, że ludzie często nie potrafią stwierdzić, czy kogoś będą czymś krzywdzić, czy też nie. Często mamy do czynienia np. z dezinformacją opartą na założeniu, że ktoś chce zrobić dobrą rzecz – choćby sprzedać odkurzacz, oparty na agentach SI system psychoterapii, albo usługi typu virtual girlfriend, które rzekomo zaspokoją czyjeś potrzeby emocjonalne. Łatwo zauważyć, że rozwój sztucznej inteligencji i jego faktyczne skutki to często dwie różne sprawy i nigdy nie wiemy do końca, czy coś do prowadzi do negatywnych konsekwencji. Nie zawsze wyrządzona szkoda musi mieć charakter fizyczny" – wyjaśnił specjalista.

Czasami jednak SI mogłaby, a nawet musiałaby udawać ludzką istotę – np. szukając przestępców w internecie.

"Tak musiałoby się zdarzać, aby chronić ludzkie życie i w ogóle człowieka przed krzywdą, czasami należałoby wykorzystać techniki maskujące. Podobnie prawo mówiące o ochronie przez robota samego siebie nie jest uniwersalnym prawem - bo właśnie musi, po pierwsze, dbać o człowieka. Istnieje też prawo zerowe mówiące, że roboty muszą dbać o dobro ludzkości – nie mogą np. doprowadzić do jej zagłady. Z tego wynika, że czasami robot mógłby nawet skrzywdzić człowieka, dla dobra całej populacji" – mówił prof. Jemielniak.

Jednak zdaniem profesora można to w prosty sposób zorganizować. "Przez cały czas będzie zachowywana hierarchia praw. Drugie prawo podlega pierwszemu, trzecie - drugiemu. Proponowane prawo czwarte miałoby podlegać pierwszemu. Stałoby się de facto prawem drugim, drugie trzecim, a trzecie – czwartym" – tłumaczył ekspert, jednocześnie zaznaczając, że mogą się oczywiście okazać potrzebne dodatkowe regulacje.

„Prawa robotyki w ogóle są raczej pewnym kierunkiem myślenia, niż ścisłym, precyzyjnym nakazem. Łatwo znaleźć sytuacje, w których samo ich ogólne brzmienie nie wystarczy. Nakaz identyfikowania się SI w interakcjach z ludźmi jest prostym, operacyjnym rozwiązaniem problemu tego, żeby nie trzeba było zastanawiać się, jakie skutki dany kontakt przynosi i aby ciężar rozważań nie był po stronie tego, w czyim interesie będzie usilne udowadnianie, że przecież ten kontakt to tak naprawdę był dla dobra nagabywanego człowieka. Czwarte prawo robotyki całkiem dobrze radzi sobie samodzielnie - nie jest silnie związane z pozostałymi, choć oczywiście łatwo możemy wyobrazić sobie ich wzajemne powiązanie” – podsumował prof. Jemielniak.

Prof. dr hab. Dariusz Jemielniak jest kierownikiem Katedry Management in Networked and Digital Societies (MINDS) w Akademii Leona Koźmińskiego. Od 2023 roku jest wiceprezesem Polskiej Akademii Nauk. Oprócz głównych zainteresowań dotyczących strategii organizacji z branży technologicznej (internetowej) i w badaniu społeczności otwartej współpracy, zajmował się także przemianami organizacyjnymi zachodzącymi na uczelniach i reformą szkolnictwa wyższego w Polsce.

Marek Matacz (PAP)

PRZECZYTAJ JESZCZE
Materiały sygnowane skrótem „PAP” stanowią element Serwisów Informacyjnych PAP, będących bazami danych, których producentem i wydawcą jest Polska Agencja Prasowa S.A. z siedzibą w Warszawie. Chronione są one przepisami ustawy z dnia 4 lutego 1994 r. o prawie autorskim i prawach pokrewnych oraz ustawy z dnia 27 lipca 2001 r. o ochronie baz danych. Powyższe materiały wykorzystywane są przez [nazwa administratora portalu] na podstawie stosownej umowy licencyjnej. Jakiekolwiek ich wykorzystywanie przez użytkowników portalu, poza przewidzianymi przez przepisy prawa wyjątkami, w szczególności dozwolonym użytkiem osobistym, jest zabronione. PAP S.A. zastrzega, iż dalsze rozpowszechnianie materiałów, o których mowa w art. 25 ust. 1 pkt. b) ustawy o prawie autorskim i prawach pokrewnych, jest zabronione.
pogoda Wągrowiec
6°C
wschód słońca: 06:30
zachód słońca: 17:35
reklama

Kalendarz Wydarzeń / Koncertów / Imprez w Wągrowcu

kiedy
2025-03-07 19:00
miejsce
Spotykalnia, Skoki, ul. Kazimierza...
wstęp biletowany
kiedy
2025-03-08 20:00
miejsce
Ośrodek Kultury, Rogoźno, ul....
wstęp biletowany
kiedy
2025-03-22 20:00
miejsce
Miejski Dom Kultury, Wągrowiec,...
wstęp biletowany
kiedy
2025-04-06 16:00
miejsce
Miejski Dom Kultury, Wągrowiec,...
wstęp biletowany