Gorące tematy: Po wyborach Ryszard Opara: „AMEN” Dyżury administratorów RSS Kontakt
Uwaga! Wygląda na to, że Twoja przeglądarka nie obsługuje JavaScript. JavaScript jest wymagany do poprawnego działania serwisu!
73 posty 3857 komentarzy

Grzegorz GPS Świderski

GPS - Jestem skrajnie konserwatywnym arcyliberałem, Sarmatą, żeglarzem, paleolibertarianinem, katolikiem, informatykiem, trajkarzem i monarchistą. Myślę, rozważam, analizuję, politykuję, dyskutuję, dociekam, filozofuję, polemizuję, prowokuję.

Czy robot może ponosić odpowiedzialność cywilną?

ZACHOWAJ ARTYKUŁ POLEĆ ZNAJOMYM

W poprzedniej notce wyjaśniłem, że roboty nie mogą być osobami, a zatem podmiotami moralności. A więc nie mogą grzeszyć.

      Co skutkuje też tym, że nie podlegają odpowiedzialności karnej - nie można ich powiesić, gdy zamordują. Ale też nie podlegają moralnej, czy prawnej, ochronie - właściciel może je bezkarnie zabić, wyłączyć, skasować - i nie będzie to złe moralnie. Będą zawsze przedmiotem własności - nawet, jeśli staną się bardziej inteligentne niż właściciel. Inteligentne roboty są jak zwierzęta - ale można je objąć ochroną.

       Ale to jest problem filozoficzny. Niemniej ma to też swój aspekt dotyczący prawa cywilnego: czy robot może uzyskać osobowość prawną? Czy można od robota zażądać odszkodowania za szkody, których dokona? Czy można go podać do sądu?

       Mogę napisać program, który będzie się uczył tego, co ludzie piszą na fejsbuku - i będzie on to naśladował odpowiadając im w podobnym stylu. No i nauczy się mowy nienawiści i będzie ją rozpowszechniał. Prokurator go za to oskarży, a sąd skaże. Kto zapłaci odszkodowanie tym obrażonym? To przecież oni go tej mowy nauczyli, nie ja - więc czemu ja miałbym płacić?

       Ten problem już jest poważnie rozważany. W tej oto notce jest informacja o pracach Parlamentu Europejskiego mających na celu utworzenie stosownych przepisów: Autonomiczny, równoległy świat sztucznej inteligencji jest już faktem?

       Mamy już w prawie pojęcia: „osoby fizycznej” i „osoby prawnej” - a Parlament Europejski rozważa utworzenie pojęcia: „osoby elektronicznej” - tak by wprowadzić odpowiedzialnością cywilną robotów. Kilka cytatów:  

  • „mając na uwadze, że od postaci Frankensteina stworzonej przez Mary Shelley po antyczny mit o Pigmalionie, poprzez historię praskiego golema i robota Karla Čapka (autora pojęcia robot) ludzkość zawsze snuła fantazje wokół możliwości stworzenia inteligentnych maszyn, najczęściej androidów o cechach ludzkich;”
  • „mając na uwadze, że rozwój robotyki i sztucznej inteligencji może jednocześnie doprowadzić do przejęcia przez roboty znacznej części pracy wykonywanej obecnie przez ludzi…”
  • „mając na uwadze, że istnieje możliwość, że w ciągu kilku dziesięcioleci sztuczna inteligencja przewyższy ludzkie zdolności intelektualne tak, że jeśli ludzkość nie będzie na to przygotowana…”
  • „mając na uwadze, że niezbędny jest jednak szereg przepisów odnoszących się zwłaszcza do odpowiedzialności i etyki…”
  • „mając na uwadze, że Unia Europejska mogłaby odgrywać kluczową rolę w ustanawianiu podstawowych zasad etycznych, które mają być przestrzegane w ramach rozwoju, programowania i wykorzystywania robotów i sztucznej inteligencji…”
  • „mając na uwadze, że im bardziej autonomiczne są roboty, tym w mniejszym stopniu można je traktować jako zwykłe narzędzia w rękach innych podmiotów…”
  • „mając na uwadze, że w świetle obecnych ram prawnych roboty nie mogą ponosić odpowiedzialności za akty zaniechania skutkujące szkodą osób trzecich…”
  • „mając na uwadze, że nie naruszając zakresu dyrektywy 85/374/EWG, obecne ramy prawne nie będą wystarczające do uwzględnienia szkód powodowanych przez roboty nowej generacji…”
  • „...wzywa Komisję do zaproponowania wspólnej europejskiej definicji inteligentnych robotów autonomicznych…”

       Moim zdaniem nie da się określić osobowości prawnej robotów. A jeśli się to jakoś pokrętnie prawnie zdefiniuje, to wstrzyma to postęp w tej dziedzinie. Nie da się, bo nie da się określić kto konkretnie miałby tę osobowość uzyskać. Roboty nie mogą być podmiotem praw, bo ten elektroniczny podmiot jest nieokreślony, płynny, mętny, rozmyty, zmienny - i nigdy się go nie uściśli.

       Człowiek jest ciałem i umysłem - i się tych elementów nie da oddzielić - oba tworzą konkretny, odrębny byt biologiczny, osobny organizm, łatwo materialnie zauważalny i możliwy do ścisłej definicji.

       U robotów można oddzielić ośrodek decyzyjny od wykonawczego i oba rozmyć. Możemy mieć tysiąc dronów działających w stadzie oraz zbiór wirtualnych komputerów w chmurze, które realizują sztuczną inteligencję i zdalnie sterują tymi dronami. To będzie jeden organizm - ale czy możliwy do uchwycenia jako spójna całość?

       Może być przecież tak, że gdy to stado dronów znajdzie się w trudniejszej decyzyjnie sytuacji (mgła, chmury, wiatr, atak kogoś) to dowództwo zwiększy moc obliczeniową ośrodka sterującego dronami tak, że dołączy do niego inny zbiór sztucznych inteligencji, łącząc to w większą całość. Takie połączenie może się odbyć na wiele sposobów - albo poprzez połączenie mocy obliczeniowej albo poprzez równoległe podejmowanie decyzji i głosowanie. Również te wykonawcze stada dronów mogą się łączyć i dzielić na wiele sposobów. I co wtedy jest podmiotem, który ma dostać osobowość prawną? Każdy dron z osobna? Każdy komputer fizyczny czy wirtualny?

      Ja rozumiem, że osobowość prawna jest potrzebna do tego, by uzyskać odszkodowanie od autonomicznego samochodu, który narobi szkód. No ale co, jeśli taki autonomiczny samochód będzie korzystał nie tylko ze swoich komputerów i kamer, ale komputerów i kamer wszystkich okolicznych samochodów, kamer monitoringu drogowego, inteligentnej nawigacji satelitarnej i prognozy pogody - i będzie to stanowić jedną całość? Proces decyzyjny może być taki, że decyzję co do ruchu samochodu podejmuje raz algorytm na komputerze tego samochodu, raz centrum sterujące, a raz odbędzie się to poprzez głosowanie samochodów z okolicy, które lepiej widzą - w zależności od tego, jaki jest czas na reakcję. I kto ma wtedy płacić odszkodowanie za złą decyzję?

       Jeśli zostanie wprowadzona osobowość prawna robotów, to może to spowodować, że z punktu widzenia prawa każdy samochód będzie musiał być autonomiczny sam w sobie i nie będzie mógł korzystać z wiedzy i mocy obliczeniowej kogokolwiek z zewnątrz. Wtedy technologie współdziałania samochodów w stadzie i wspomagania z centrum nie będą się rozwijać! A gołym okiem widać, że współdziałając zapewnią tysiąckroć większe bezpieczeństwo!

       Ludzki mózg nie jest podzielny i nie da się mózgów łączyć. Zdarza się rozdwojenie jaźni, ale to jest rzadka choroba psychiczna - trudno ją celowo wywołać i wyleczyć. Ludzie też działają w grupie, ale wciąż można każdego członka grupy wyodrębnić i ustalić jego odpowiedzialność.

       Tymczasem bez problemów jedna wirtualna sieć neuronowa może być realizowana na wielu komputerach na raz, a w trakcie jej działania może ona podzielić się na kilka sieci, albo połączyć z innymi w jedną całość - po drodze zmieniając wirtualne komputery, na których działają - cały czas realizując jedno zadanie - na przykład prowadząc zdalnie autonomiczny samochód. Albo może być tak, że jedna sieć realizuje jedno zadanie (prowadzi jeden samochód), a druga inne (prowadzi drugi samochód), ale warunki pogodowe się w obu przypadkach zmienią i jakaś inteligentna sieć, nadzorująca te dwie, dojdzie do wniosku, że trzeba je zamienić miejscami, albo je połączyć w jedną i niech steruje oboma samochodami. Która z tych sieci powinna odpowiadać za ewentualny wypadek? Odpowiada się przecież nie tylko za działanie, ale też za zaniechanie, gdy się działać może.

       Problem z rozmyciem osobowości, czy raczej ontyczności, przedmiotów, jest już filozofom znany od starożytności i nazywa się to: "Statek Tezeusza". Jeśli taki statek uzyska osobowość prawną, a potem będą wymieniane w nim części na nowe, a ze starych zrobi się drugi starek, to który z nich będzie miał tę przydzieloną prawnie osobowość, który będzie recydywistą?

       Podobne pytanie można zadać w stosunku do mojego smartfonu, który uzyska osobowość prawną dzięki inteligentnej aplikacji działającej w chmurze, która mi doradza. No i ja go zgubię, i kupię identyczny, w którym umieszczę wszystkie aplikacje i dane ze starego - to będzie ten sam smartfon, czy inny? Jeśli ta aplikacja doradcza, która nadal mi doradza na nowym, wyśle z tego starego, który leży gdzieś w trawie, sygnał odpalający bombę, to ten nowy za to odpowie? Tu te kwestie kiedyś rozważałem: Nowa ontyczność przedmiotów

Grzegorz GPS Świderski

PS. Notki powiązane:

 

KOMENTARZE

  • Autor
    "Parlament Europejski rozważa utworzenie pojęcia: „osoby elektronicznej” - tak by wprowadzić odpowiedzialnością cywilną robotów."
    ... i tak:
    "„mając na uwadze, że im bardziej autonomiczne są roboty, tym w mniejszym stopniu można je traktować jako zwykłe narzędzia w rękach innych podmiotów…”

    Błąd. - Tym bardziej trzeba " je traktować jako zwykłe narzędzia", a karać właścicieli za to że wypuścili do użytku produkty nie przebadane i niebezpieczne.
    Producent tu musi dawać swoją gwarancję, sprzedawca swoją, właściciel czy posiadacz swoją, szeroko rozumiany serwis swoją.

    albo:
    "„mając na uwadze, że niezbędny jest jednak szereg przepisów odnoszących się zwłaszcza do odpowiedzialności i etyki…”

    Owszem, ale nie dla robotów, a dla właścicieli i producentów oraz ekip technicznych - wyłącznie ludzi.


    "„mając na uwadze, że Unia Europejska mogłaby odgrywać kluczową rolę w ustanawianiu podstawowych zasad etycznych, które mają być przestrzegane w ramach rozwoju, programowania i wykorzystywania robotów i sztucznej inteligencji…”

    Jak ktoś wie, że UE to przede wszystkim instytucja usługowa wobec korporacji prywatnych, oraz że one funkcjonują poza moralnością to nigdy nie można będzie zaufać etyce którą oni wyprodukują.
    Przecież oni i zwykłe prawa opierają na "prawie kaduka" i korupcji, a etyka to też forma prawa. - Tylko że prawo powinno wynikać ze sprawiedliwości a etyka z moralności.
    Bez tego to jest tylko oszustwo że mamy do czynienia z prawem czy etyką.


    "„mając na uwadze, że w świetle obecnych ram prawnych roboty nie mogą ponosić odpowiedzialności za akty zaniechania skutkujące szkodą osób trzecich…”

    I nie mogą móc tej "odpowiedzialności za akty zaniechania skutkujące szkodą osób trzecich"ponosić.
    To nie z ich woli są te zaniechania, tylko z programu czy z konstrukcji. Jeśli urządzenie źle pracuje to zawsze winni są ludzie, i to najpierw producenci i właściciele.

    A kto to są ci "producenci i właściciele robotów" jak nie korporacje prywatne - właściciele UE.
    To oni chcą od siebie oddalać moralność i odpowiedzialność już z góry zanim dojdzie do tragedii.


    "„...wzywa Komisję do zaproponowania wspólnej europejskiej definicji inteligentnych robotów autonomicznych…”

    Tutaj to już śmiech ogarnia. Mają rozgraniczyć swoją odpowiedzialność i swoje konsekwencje karne do minimum tak, żeby okazywało się dalej że zło które zaistniało to wina "autonomicznego" robota.
    Tacy wielcy "panowie Europy" a jak naiwne, nielogicznie myślące dzieci, co im się wydaje że wszystko można i to będzie mogło tak trwać.

    Inaczej mówiąc chcą przyznać robotom autonomię, chcą wyzbyć się swojej władzy i kontroli nad robotami, oraz odpowiedzialności za sprawność swoich narzędzi.

    Narzędzi będących sprawcami wypadków, i to wszelakich. Np. jak mnie urządzenie porazi prądem, to rodzina po mnie ma skarżyć urządzenie czy tego co mi go sprzedał?
    Maszyna żeby miała choćby najszerszy zakres autonomii czyli wolności, to zawsze tej wolności musi towarzyszyć odpowiedzialność tego, co jej tą wolność/autonomię przyznał zrzekając się swojej.
    Maszynę owszem, "puszcza się wolno", daje się jej autonomię, ale zawsze w określonych granicach i zawsze pod kontrolą, z przeglądami, serwisem, konserwacją, z ciągłym podpisywaniem przez kogoś dokumentów że maszyna jest sprawna.
  • @
    Pytanie jest: Czy bio-robot może być rozgrzeszany za swoje grzechy?
    Oczywiście wg Prawa swojego Stwórcy.
  • Mikro roboty o dużej częstotliwości, sterują dużymi robotami o małej częstotliwości.
    .
    Powtarzam, Polacy z wyłączoną równowagą przez konstytucję są tylko robotami, przedmiotami tzw. gojami.

    WYŁĄCZONA częściowo równowaga władzy konstytucją, jak narkotyk, pozwala na sterowanie żywymi przedmiotami z wyciszonym głosem.

    Automat TV o wielkim zasięgu, bardzo krótko pokazał Polskich Rolników proszących o pomoc Prezydenta.
  • Czym jest osobowość?
    Moc kalkulacyjna sieci neuronowej (AI - sztucznej inteligencji) nie ma nic wspólnego z byciem osobą (Dasein) czy świadomością.

    Najpotężniejsze maszyny z siecią neuronową nie różnią się jakościowo od zwykłego kalkulatora czy smartfona.

    Nie wiadomo czy stworzenie sztucznej świadomości przez człowieka jest możliwe, ale tak czy inaczej nikt do takiej technologii jeszcze się nie przybliżył.
  • @GPS
    Oszałamiająca moc stwórcza materii została wyśledzona aż do jej prawdziwego początku, Boga.
  • @miarka 03:02:09
    Dokładnie o to chodzi urzędnikom Unii Europejskiej, by scedować odpowiedzialność cywilną z właścicieli i producentów na urządzenia – ale tylko takie, które uznają za inteligentne. W tym celu wprowadzą fundusz, z którego będzie się płaciło odszkodowania, a zasilany będzie oczywiście z jakichś opłat, które na końcu poniesie podatnik. UE to projekt socjalistyczny, więc stosuje socjalistyczne rozwiązania.
  • @Zdzich 07:55:46
    "Czy bio-robot może być rozgrzeszany za swoje grzechy?"

    Zanim o to spytamy, to należy spytać: czy robot może grzech popełnić? Czy zdolność do grzeszenia to kwestia inteligencji? Moim zdaniem nie. Robot zawsze będzie własnością - gdy będzie inteligentny, to się to nazywa niewolnictwem. Niewolnik nie podlega moralności. Dlatego właśnie niemoralne jest niewolenie ludzi. A moralne jest niewolenie zwierząt.
  • @goodness 08:26:40
    Zgadzam się - Polacy są niewolnikami. Ale nie dlatego, że nas ktoś z zewnątrz zniewala - sami ustanawiamy system niewolniczy i pilnujemy, by się było trudno z niego wyzwolić.
  • @Pedant 10:12:00
    "Najpotężniejsze maszyny z siecią neuronową nie różnią się jakościowo od zwykłego kalkulatora czy smartfona"

    Nie. Najpotężniejsze maszyny realizujące sztuczną inteligencję w oparciu o sieci neuronowe to jakościowo coś dużo więcej niż proste algorytmy. To programy mające wiele warstw, a ta najwyższa działa bardzo podobnie do ludzkiego mózgu. Przełom jakościowy już nastąpił, a teraz tylko wystarczy przełom ilościowy, by sztuczna inteligencja dorównała ludzkiej, a nawet ją przewyższyła pod każdym względem. Moim zdaniem to się stanie niedługo, w ciągu kilkunastu lat, i dlatego trzeba już teraz rozważać status moralny i prawny sztucznej inteligencji. Już dziś należy uznać, że tylko człowiek podlega prawu i moralności, a nawet najmądrzejszy sztuczny twór będzie zawsze naszym niewolnikiem.
  • Autor
    //Ludzie też działają w grupie, ale wciąż można każdego członka grupy wyodrębnić i ustalić jego odpowiedzialność.//

    Tu można znaleźć "kozła ofiarnego" a roboty mają mieć lepiej?

    Błędne wnioski... Wszystko tak samo jak u ludzi jest...
    //W poprzedniej notce wyjaśniłem, że roboty nie mogą być osobami, a zatem podmiotami moralności.//
    No, nie wyjaśniłeś... Ale nic nie mówiłem więc...

    Pozdrawiam.
  • @Franek Ganek 15:01:58
    Wyjaśniłem, bo napisałem wyraźnie: Moralność dotyczy wszystkich tych organizmów, które są biologicznie zdolne do krzyżowania się z homo sapiens, a zatem mogą z nim spłodzić potomstwo.

OSTATNIE POSTY

więcej

ARCHIWUM POSTÓW

PnWtŚrCzPtSoNd
 123456
78910111213
14151617181920
21222324252627
28293031   

ULUBIENI AUTORZY

więcej