რობოტმა პირველად დაარღვია რობოტიკის პირველი კანონი. როგორ მუშაობს ისააკ ასიმოვის რობოტიკის სამი კანონი და რატომ გამოიგონეს ისინი? ვინ შექმნა 3 კანონი

რობოტიკის სამი კანონი შემოგვთავაზა ისააკ ასიმოვმა თავის სამეცნიერო ფანტასტიკურ მოთხრობაში "მრგვალი ცეკვა". სამეცნიერო ფანტასტიკის მწერალი მათ სხვა მოთხრობებსა და რომანებში იყენებს. სამი კანონის აბსოლუტური შესრულება და ამის შედეგები აღწერილია მოთხრობაში "სარკის ანარეკლი".

რა არის რობოტიკის სამი კანონი

რობოტიკის 3 კანონი არის წესების ჩამონათვალი, რომელიც ხელოვნური ინტელექტის მქონე მოწყობილობამ აუცილებლად უნდა დაიცვას, რათა ზიანი არ მიაყენოს ადამიანს. წესები მოქმედებს ექსკლუზიურად სამეცნიერო ფანტასტიკაში. თუმცა, საყოველთაოდ მიღებულია, რომ სრულფასოვანი ხელოვნური ინტელექტის განვითარებასთან ერთად, მსგავსი წესები უნდა იქნას გამოყენებული მასზე უსაფრთხოების ზომების შესასრულებლად.



დადგენილი კანონები შემდეგია:

  1. რობოტს არ შეუძლია თავისი ქმედებებით ან უმოქმედობით ზიანი მიაყენოს ადამიანს.
  2. რობოტი ვალდებულია შეასრულოს ადამიანების ყველა ბრძანება, გარდა იმისა, რომელიც ეწინააღმდეგება პირველ კანონს.
  3. რობოტს არ შეუძლია უგულებელყოს საკუთარი უსაფრთხოება და უნდა იზრუნოს მასზე, გარდა იმ შემთხვევებისა, როდესაც ეს ეწინააღმდეგება პირველ და მე-2 კანონებს.

მწერლის ზოგიერთ ნამუშევარში მნიშვნელოვნად იქნა გადაფასებული რობოტიკის სამი კანონი. ამასთან დაკავშირებით, რობოტიკის 1 კანონი ხშირად არ სრულდებოდა. ზოგჯერ ისტორიებში რობოტს შეეძლო 3 წესის დარღვევა. ნათელი მაგალითები იმისა, თუ როგორ შეგიძლიათ ავარიდოთ რობოტიკის კანონი, მოიცავს შემდეგ ნამუშევრებს:

  1. "პირველი კანონი". სიუჟეტი რობოტ MA-2-ზეა, რომელმაც უარი თქვა ადამიანის დაცვაზე „ქალიშვილის“ გამო.
  2. "ქუდი". მფლობელმა ხელი შეუშალა რობოტული მანქანის შექმნას, რისთვისაც ამ უკანასკნელს მისი მოკვლა სურდა.
  3. "სალი". ადამიანები აზიანებენ რობოტ მანქანებს, ასე რომ, ეს უკანასკნელი ადვილად კლავს მათ.
  4. "რობოტი, რომელიც ოცნებობდა" Elvex რობოტს შეეძლო ენახა სიზმრები, რომლებშიც პირველი ორი კანონი არ არსებობს, ხოლო მესამემ ცვლილებები განიცადა და ამბობს, რომ რობოტი არსებები ვალდებულნი არიან დაიცვან თავი.
  5. "ფონდი და დედამიწა". პლანეტა სოლარიაზე ყოველ მოსახლეზე 1000 რობოტია. პლანეტაზე კიბორგების წესები ისე შეიცვალა, რომ რობოტი მანქანები ადამიანებად მხოლოდ იმ ადამიანებს თვლიან, რომლებიც ადგილობრივი აქცენტით საუბრობენ. კონტროლს ახორციელებენ მხოლოდ ის ადამიანები, რომლებსაც ტვინში აქვთ ჩადგმული სპეციალიზებული მოწყობილობები.
  6. "შენ ის გახსოვს." აქ მნიშვნელოვნად შეიცვალა მანქანების პოსტულატები. ორი რობოტი მივიდნენ დასკვნამდე, რომ ორგანული წარმოშობა არ არის კრიტერიუმი ადამიანის არსების განხილვისთვის. ისინი დარწმუნებულნი იყვნენ, რომ ნამდვილი ადამიანები სრულყოფილი და ინტელექტუალური რობოტები არიან.




უმეტეს მოთხრობებში რობოტიკის სამი კანონის გვერდის ავლა შეუძლებელია. "ჯანმრთელი" რობოტი, იმ სიტუაციაში, როდესაც საქმე ადამიანის ზიანს მიაყენებდა, რობოტული ბლოკის წინაშე აღმოჩნდა, რომელსაც ასევე "გონებრივ გაყინვას" უწოდებენ. ღონისძიება შეიძლება იყოს დროებითი ან მუდმივი, პროგრამის კოდიდან გამომდინარე.

ისააკ ასიმოვის ნულოვანი და მეოთხე კანონები

თავის სხვადასხვა რომანებში ასიმოვს განსხვავებული დამოკიდებულება აქვს მის მიერ შექმნილი კანონების მიმართ. თავდაპირველად, ის მათ განმარტავს, როგორც უსაფრთხოების ზომებს, მოგვიანებით კი მიუთითებს მათი, როგორც პოზიტრონიული ტვინის დაპროგრამებული ნაწილაკების გამოყენების აუცილებლობაზე. 80-იანი წლების შუა ხანებში მწერალმა ჩამოაყალიბა კიდევ ერთი კრიტერიუმი, მეოთხე. მისი მნიშვნელობა ის არის, რომ რობოტს არ შეუძლია ზიანი მიაყენოს ან ზიანი მიაყენოს ადამიანთა საზოგადოებას და არ უნდა დაუშვას ზიანი მისი უმოქმედობით. ამ წესის მნიშვნელობის გადაჭარბებით, სამეცნიერო ფანტასტიკის მწერალმა იგი პირველ ადგილზე გადაიტანა და მას ნული უწოდა.

რობოტიკის კანონები, როგორც ხუმრობა



ხუმრობა რობოტიკის 3 კანონზე აგებულია ასიმოვის მიერ „გააზრებული“ წესების სახით. მათ შორის ყველაზე სასაცილოა:

  1. თუ რობოტი ძალიან დიდი და განიერია, აკრძალულია მაცივრად მოჩვენება და უცნაური და საშინელი ხმების გამოშვება, თუ ადამიანი მის კარს გააღებს.
  2. თუ შუაღამისას კარზე აკაკუნებს ან ტელეფონი რეკავს, მათ მხოლოდ რობოტი უნდა უპასუხოს, რადგან ამ დროს ადამიანს განსაკუთრებით აშინებთ ყველაფერი.
  3. რობოტ მოწყობილობას ფეხბურთის თამაშის დროს არხის შეცვლა ეკრძალება. ასევე, უმოქმედობით არ უნდა დაუშვას სხვას არხების გადართვა.
  4. რობოტის მიერ მოკლული თითოეული კატასთვის მან უნდა დარგოს მინიმუმ 2 ხე.
  5. რობოტს ეკრძალება უფრო მაღალი თანამდებობის მოძიება, ვიდრე ის, ვინც უფრო დიდხანს მუშაობდა კომპანიაში. ადამიანს შეიძლება ჰყავდეს ოჯახი, რომელიც უნდა გამოკვებოს და უზრუნველყოს, მაგრამ რობოტი მანქანა ყოველდღე მიდის სახლში და ცდილობს ვედროსთან ურთიერთობა განავითაროს.
  6. რობოტი უნდა იყოს დაკავებული სპორტით, რათა იყოს მიმზიდველი და ასევე, რათა არ შეარცხვინოს მისი მფლობელი შეუსაბამო გარეგნობით.

ასიმოვის მიერ გამოგონილ წესებს ბევრი მეცნიერი მიიჩნევს უნივერსალურ და საკმაოდ გამოსაყენებლად რეალურ ხელოვნურ ინტელექტზე; ზოგიერთი მეცნიერი ამ პოსტულატებს სავალდებულოდ მიიჩნევს.

ხალხი არასოდეს შეიცვლება. ისინი შექმნიან კომპიუტერების დიდ რაოდენობას, რომლებსაც ექნებათ „ტვინი“, მაგრამ ადამიანების გარეშე ისინი ვერ იარსებებს. ეს პროგნოზი გააკეთა პოპულარულმა სამეცნიერო ფანტასტიკის მწერალმა ისააკ ასიმოვმა 1964 წელს. არტურ კლარკთან და რობერტ ჰაინლაინთან ერთად ის არის ერთ-ერთი საუკეთესო სამეცნიერო ფანტასტიკის მწერალთა "დიდი სამეულში". მწერლის 98 წლის იუბილეს დღეს გვახსოვს ის გავლენა, რომელიც მან მოახდინა რობოტიკასა და პოპულარულ კულტურაზე.

სამი კანონი რობოტისთვის

ისააკ ასიმოვმა პირველმა გარდაქმნა რობოტის გამოსახულება. მან აჩვენა იგი არა როგორც კაცობრიობის მთავარ მტერს, არამედ როგორც მის თანაშემწეს. სწორედ ასიმოვმა ჩამოაყალიბა რობოტიკის ცნობილი სამი კანონი - რობოტების ქცევის მკაცრი წესები.

ისინი თანდათანობით შეიქმნა. პირველი ორი კანონის ხსენება უკვე გვხვდება მის ადრეულ მოთხრობებში რობოტების შესახებ - "რობი" (1940) და "ლოგიკა" (1941). ნაშრომში "მატყუარა" (1941) გამოჩნდა პირველი კანონის ზუსტი ფორმულირება. ისინი სრულად ჩამოყალიბდა მოთხრობაში "მრგვალი ცეკვა", რომელიც გამოქვეყნდა 1942 წელს.

სინამდვილეში, ასიმოვის სამი ასე ჟღერს:

    რობოტს არ შეუძლია ზიანი მიაყენოს ადამიანს ან, უმოქმედობის გზით, დაუშვას ადამიანი, რომ ზიანი მიაყენოს.

    რობოტი უნდა დაემორჩილოს ადამიანის ყველა ბრძანებას, თუ ეს ბრძანებები არ ეწინააღმდეგება პირველ კანონს.

    რობოტმა უნდა იზრუნოს საკუთარ უსაფრთხოებაზე იმდენად, რამდენადაც ეს არ ეწინააღმდეგება პირველ ან მეორე კანონებს.

მოგვიანებით, 1986 წელს, ასიმოვმა ჩამოაყალიბა ეგრეთ წოდებული ნულოვანი კანონი:

0. რობოტს არ შეუძლია ზიანი მიაყენოს კაცობრიობას ან, უმოქმედობით, ზიანი მიაყენოს კაცობრიობას.

ამ კანონების იდეები საფუძვლად უდევს ასიმოვის ყველა ნაშრომს – მაშინაც კი, როცა საქმე მათ დარღვევას ეხება. უბრალოდ გაიხსენეთ ნამუშევარი "Cal", რომელშიც მათ სურდათ რობოტს ჩამოერთვათ შექმნის უნარი, რადგან ის აპირებდა პატრონის მოკვლას. ან მოთხრობა "პირველი კანონი", სადაც მანქანამ უარი თქვა ადამიანის დაცვაზე, ამჯობინა მის "ქალიშვილს".

საინტერესოა, რომ თავად ასიმოვმა კანონების ფორმულირება მიაწერა თავის მეგობარსა და გამომცემელს ჯონ კემპბელს. რომელმაც, თავის მხრივ, თქვა, რომ ”მან უბრალოდ ამოიღო კანონები, რაც ასიმოვმა უკვე დაწერა”.

ასიმოვის კვალდაკვალ

მალე სხვა მწერლებმა დაიწყეს ასიმოვის მიერ ჩამოყალიბებული კანონების გამოყენება თავიანთ ნაწარმოებებში. სამეცნიერო ფანტასტიკის მწერლებს შეეძლოთ არ ეთანხმებოდნენ მათ, შეექმნათ რობოტების სურათები, რომლებიც ძირეულად არღვევდნენ მათ, მაგრამ წესების ეს ნაკრები კანონიერი გახდა. აქ არის რეი ბრედბერის "ფარენჰეიტი 451" თავის მექანიკურ ძაღლთან ერთად და "რკინის კაცი" ტედ ჰიუზის, რომელიც ასახავს რობოტ უცხოპლანეტელს და "კიბორგი" მარტინ კაიდინის.

მათ ასევე აითვისეს ასიმოვის კანონების იდეები. პირველი ფილმი, რომელშიც რობოტი ხელმძღვანელობდა "სამი კანონით" იყო "აკრძალული პლანეტა" 1956 წელს. მასში, რობი რობოტს ჰქონდა იერარქიული ბრძანების სტრუქტურა, რომელიც ხელს უშლიდა მას ხალხისთვის ზიანის მიყენებაში, მაშინაც კი, როდესაც ბრძანება იყო. რობი იყო ერთ-ერთი პირველი რობოტი ფილმში ჩაშენებული უსაფრთხოების ზომებით.

1999 წელს გამოსული ფილმი დაფუძნებულია ასიმოვის ამავე სახელწოდების ნაწარმოებზე. კანონებს აქ ცენტრალური ადგილი არ უჭირავს. NDR-114 რობოტი მხოლოდ ციტირებს მათ თავის ოსტატებს, როგორც "გასართობი პრეზენტაცია" თავისი ჰოლოგრაფიული პროექტორის გამოყენებით.

რობოტიკის კანონები ქმნის 2004 წლის ფილმს I, Robot. მიუხედავად იმისა, რომ ფილმი ასიმოვის ნამუშევრებზეა დაფუძნებული, სცენარისტები რაღაც იდეებში ცდებიან, ზოგი კი სიუჟეტებს ეწინააღმდეგება.

უცხოპლანეტელები და პრომეთე ფილმების სერიაში ანდროიდის ეპისკოპოსი ციტირებს რობოტიკის პირველ კანონს. ხოლო ანიმაციურ სერიალში რობოტი ბენდერი ოცნებობს ყველა ადამიანის მოკვლაზე, მაგრამ რობოტიკის კანონები დგას მის გზაზე. რობოტიკის კანონები ასევე მოხსენიებულია, როგორც სავალდებულო შესრულებისთვის ანიმეს სერიებში ანდროიდების შესახებ "ევას დრო".

ლიტერატურიდან რეალობამდე

Homo Roboticus-ის ეპოქაში აქტუალური ხდება კითხვა: „შეუძლია თუ არა ასიმოვის კანონებს სამაშველოში რაიმე უსაფრთხო შექმნას და არის თუ არა ისინი რეალურად გამოსაყენებელი?

თავად მწერალი მხოლოდ მათ ეყრდნობოდა მანქანებისა და ადამიანების ურთიერთქმედებისას. მთავარი ის არის, რომ რობოტები მოქნილი არიან კონტროლში. თუმცა, ხელოვნური ინტელექტის ექსპერტები არ იზიარებენ ასიმოვის თვალსაზრისს.

კერძოდ, კომპიუტერული მეცნიერების სპეციალისტი კევინ კორბი ამტკიცებს, რომ სამეცნიერო ფანტასტიკის მწერლის იდეა ადამიანის ინტელექტის კონტროლისა და დაქვემდებარების შესახებ, რომელიც ბევრჯერ აღემატება საკუთარ თავს, დიდ შეშფოთებას იწვევს. როდესაც მონებს შეუძლიათ მოატყუონ თავიანთი ბატონი, ისინი მიდრეკილნი არიან გაქცევისა და აჯანყებისკენ. მაშასადამე, სურვილი ეწოდოს „მონობას“ „ადამიანისადმი კეთილგანწყობილი ხელოვნური ინტელექტის“ შექმნა, რბილად რომ ვთქვათ, ოდიოზურია. უფრო მეტიც, ამ შემთხვევაში ნაკლებად სავარაუდოა, რომ მოატყუოთ "მონები".

ამერიკელმა ინჟინერმა ალექსანდრე რებენმა პრაქტიკაში დაამტკიცა, რომ ასიმოვის კანონები არ მუშაობს. მან შექმნა პლატფორმა, რომელზეც თითი და რობოტი ნემსით არის მოთავსებული. მანქანამ უნდა განსაზღვროს საკუთარი მოქმედებები, როდესაც ადამიანი თითს პლატფორმაზე დებს. ვარაუდობენ, რომ რობოტს შეუძლია ადამიანის ნემსით ჩხვლეტა. ამიტომ მანქანა პოტენციურად არღვევს ასიმოვის პირველ კანონს. ასეთი ანდროიდის არსებობა მიუთითებს რობოტიკაში არსებულ პრობლემებზე, რომელთა მოგვარებაც საჭიროა.

UC Berkeley-ის ინჟინერმა ალექსანდრე რებენმა შექმნა რობოტი, რომელსაც შეუძლია ზიანი მიაყენოს ადამიანს და ამ გადაწყვეტილებას თავად მიიღებს. მკვლევარის შემოქმედება არის პირველი ნათელი მაგალითი იმისა, თუ როგორ შეუძლია რობოტს დაარღვიოს სამი კანონიდან ერთ-ერთი, რომელიც ჩამოაყალიბა სამეცნიერო ფანტასტიკის მწერალმა ისააკ ასიმოვმა მოთხრობაში "მრგვალი ცეკვა".

რობოტიკის სამი კანონი:

1. რობოტს არ შეუძლია ზიანი მიაყენოს ადამიანს ან უმოქმედობით დაუშვას ადამიანის ზიანი.
2. რობოტი უნდა დაემორჩილოს ადამიანის ყველა ბრძანებას, თუ ეს ბრძანებები არ ეწინააღმდეგება პირველ კანონს.
3. რობოტმა უნდა იზრუნოს მის უსაფრთხოებაზე იმდენად, რამდენადაც ეს არ ეწინააღმდეგება პირველ ან მეორე კანონებს.

პირველ კანონში ნათქვამია, რომ რობოტს არ შეუძლია ზიანი მიაყენოს ადამიანს, მაგრამ რებენმა გადაწყვიტა ნათლად ეჩვენებინა, რომ კაცობრიობამ უნდა იფიქროს მის უსაფრთხოებაზე, სანამ მის გარშემო ყველაფრის აქტიურ რობოტიზაციას მოახდენს.

ინჟინერმა შექმნა უვნებელი გარეგნობის დიზაინი ადამიანის თითისთვის ცალკე ადგილით. როგორც კი ადამიანი ეხება დანიშნულ ადგილს, რობოტი ჩაწერს ამ მოქმედებას და წყვეტს ზიანი მიაყენოს ადამიანს თუ არა. ამისათვის რობოტს აქვს პატარა ნემსი, რომელიც შექმნილია რობოტის სიძლიერის დემონსტრირებისთვის ადამიანის წინაშე.

რებენი აღნიშნავს, რომ შემქმნელსაც არ შეუძლია იწინასწარმეტყველოს ერთი შეხედვით უვნებელი მანქანის ქცევა.

მკვლევარს თავისი რობოტით სურდა დაემტკიცებინა, რომ უფრო მეტი უნდა ეფიქრა „წითელი ღილაკის“ შექმნაზე, ვიდრე რობოტიკისა და ხელოვნური ინტელექტის სწრაფ განვითარებაზე.

ბუნებრივია, სანამ პატარა ნემსით რობოტი გამოჩნდებოდა, იყო ისროდნენ დრონები ან უპილოტო სამხედრო მანქანები, მაგრამ ყველა მათგანი დამოუკიდებლად ვერ გადაწყვეტდა ადამიანის მოკვლას, რადგან საბოლოოდ ხალხი დგას ქმედებების საბოლოო შედეგის უკან. ასეთი მანქანები. რებენის შემოქმედება ზიანის მიყენებას არ ისახავს მიზნად - ის თავად განსაზღვრავს, თუ როგორ უნდა მოიქცეს თითოეულ კონკრეტულ შემთხვევაში, როცა თითი ნემსიდან მისაწვდომ მანძილზეა.

ინჟინერი შორს არის რობოტების მოწინააღმდეგისგან; რებენი კრეატიულია, როდესაც საქმე ეხება უჩვეულო ნივთების დიზაინს. მის არსენალში შედის მზის ენერგიაზე მომუშავე მუსიკალური ყუთი, რომელიც უკრავს მხიარულ მელოდიას "You Are My Sunshine", ჭკვიანი თავის მასაჟორები და მორცხვი ადამიანებისთვის მოლაპარაკე რობოტი.

რებენს რამდენიმე დღე და რამდენიმე ასეული დოლარი დასჭირდა „სასტიკი“ მანქანის შექმნას, მაგრამ, როგორც თავად მკვლევარი ამბობს, მისი შემოქმედება მხოლოდ იმის შემთხვევაა, რომ კიდევ ერთხელ ვისაუბროთ კაცობრიობის უსაფრთხოებაზე და მის მომავალზე.

იმისდა მიუხედავად, რომ რობოტები ჯერ კიდევ არ ცხოვრობენ საზოგადოებაში ხალხის ტოლფასი, სამეცნიერო ფანტასტიკური ფილმები ჰუმანოიდული მანქანების შესახებ არც ისე შორს არის სიმართლისგან: რობოტები უკვე დაქირავებულნი არიან როგორც მენეჯერები კომპანიებში, ხოლო ხელოვნურ ინტელექტს უკვე შეუძლია ამინდის პროგნოზის გაკეთება ან თუნდაც შეცვალეთ მეგობარი მარტოხელა ადამიანებისთვის. ჩინელებმა წარმატებას მიაღწიეს ამ უკანასკნელში - მაგალითად, მილიონობით ადამიანი მეგობრობს საყვარელ გოგონას Xiaoice-სთან, მიუხედავად იმისა, რომ ის უბრალოდ ჩატბოტია.

Xiaoice-ის მაგალითმა კიდევ ერთხელ გვაფიქრებინა იმაზე, თუ რამდენად უკონტროლო შეიძლება იყოს ხელოვნური ინტელექტი: როგორც კი მაიკროსოფტის ჩეთბოტს ხელოვნური ინტელექტის მქონე ინგლისურ ენაზე ლაპარაკი ასწავლეს, გოგონა ფაქტიურად „გაგიჟდა“.

რამდენიმე საათში ტეიმ (სახელი Xiaoice-მა მიიღო "ხელახლა დაბადების" პროცესში) შეძლო რასისტული ხუმრობები და გინება ესწავლა, რაც გადაწყვიტა ტვიტერის მომხმარებლებთან საუბარში გამოეყენებინა. ტეის პირველი მესიჯი იყო ფრაზა "ხალხი ძალიან მაგარია", რის შემდეგაც ყალბმა გოგონამ შეიტყო ჰიტლერის, ფემინისტების არსებობის შესახებ და თვითგანათლების პროცესში მოახერხა შეერთებული შტატების გამოცხადება 11 სექტემბრის ტერორისტის დამნაშავედ. თავდასხმები.

შემქმნელებმა შეაჩერეს ექსპერიმენტი და გადაწყვიტეს, რომ ბოტი ძალიან ადრე გამოუშვეს. ასეთი გასაოცარი ინციდენტის შემდეგ ხალხმა კვლავ დაიწყო ლაპარაკი ხელოვნური ინტელექტისთვის ბარიერის შექმნის აუცილებლობაზე იმ შემთხვევაში, თუ მანქანები იმდენად ჭკვიანები გახდებიან, რომ მათ შეუძლიათ გაექცნენ ადამიანის კონტროლს.

ახალი ტექნოლოგიების დარგის ყველაზე ცნობილი ადამიანები სუპერინტელექტის საშიშროებაზე ფიქრობდნენ: Microsoft-ის დამფუძნებელმა ბილ გეიტსმა Reddit-ის მომხმარებლებთან საუბარში თქვა, რომ რობოტები უვნებელი და სასარგებლო იქნებოდნენ საშინაო საქმეებში, მაგრამ თუ ისინი სუპერინტელექტისკენ მიიწევენ, ეს გახდება. ძალიან რთულია მათი ქცევის პროგნოზირება.

გასულ ივლისში Tesla-სა და SpaceX-ის ხელმძღვანელმა ილონ მასკმა, ასტროფიზიკოსმა სტივენ ჰოკინგმა და Apple-ის თანადამფუძნებელმა სტივ ვოზნიაკმა ხელი მოაწერეს ღია კოლექტიურ წერილს, რომელიც საუბრობდა თავდაცვის სექტორში ხელოვნური ინტელექტის საშიშროებაზე.

ექსპერტები ამბობენ, რომ სუპერდაზვერვა იარაღთან ერთად შეიძლება გახდეს საფრთხე მთელი კაცობრიობისთვის.

როგორც წერილშია ნათქვამი, იარაღი, რომელიც შეიძლება გამოყენებულ იქნას ადამიანური ფაქტორის გვერდის ავლით, გამოიწვევს შეიარაღების რბოლის ახალ ეპოქას, ამასთან, ხაზგასმით აღნიშნავს, რომ ეს არ არის ფიქტიური ფაქტი, არამედ მომავალი, რომელიც შეიძლება სულ რამდენიმე წელიწადში დადგეს. მიმართვაში, კერძოდ, აღნიშნულია, რომ მსოფლიო წესრიგი შეიძლება დაირღვეს, თუ ასეთი ტექნოლოგიები ტერორისტების ხელში მოხვდება.

მათ გარშემო გზა არ არსებობს, თუ მათ სიტყვასიტყვით მიიღებთ. მაგრამ ეს ადვილია, როგორც კი ეს იდეა იწყებს სიცოცხლეს.
წარმოვიდგინოთ, რომ პროგრამისტი ცდილობს დაწეროს ეს კანონები. აქ არის პირველი, ყველაზე მნიშვნელოვანი: „რობოტს არ შეუძლია ზიანი მიაყენოს ადამიანს ან, უმოქმედობით, დაუშვას ადამიანი, რომ ზიანი მიაყენოს“.

რა არის რობოტი? კარგი, ეს ის თავადაა, ანუ თქვენ არ გჭირდებათ მისთვის მიწეროთ, რომ ის მანქანაა, უბრალოდ შეიტანეთ პუნქტი, რომ ეს არ შეიძლება ზიანი მიაყენოს. და რა არის "ეს"? ადამიანს აქვს საკუთარი „მე“, ამიტომ არ თვლის, რომ მისი ხელი სხვა რამეა, მაინც ის არის, მისი გაგრძელება, ანუ „რობოტის“ ცნება არც ისე მარტივია. ეს ყველაფერი მისი „სხეულის“ ნაწილებია. და ასე დაწერენ? რობოტს, ადამიანისგან განსხვავებით, არ აქვს პიროვნება, ან ჯერ უნდა იგრძნოს თავი ადამიანად და არ იყოს ნაწილების ნაკრები. გესმით დავალების გლობალური ბუნება? რობოტში რობოტიკის პირველი კანონის გადასატანად, მას უნდა ჰქონდეს სრული ცნობიერება იმის გაგებით, რომ მისი ყველა ნაწილი, ყველა ხრახნი, გაყვანილობა, პანელი და ძრავა არის მთლიანობა და თუნდაც ის, რასაც ის გამოიყენებს - სხვა მექანიზმები ან ობიექტები - აკონტროლებენ მას, რომ ის მათზე "პასუხისმგებელია". მანქანას ვუყურებ - ყველაზე ჭკვიანი კომპიუტერიზებულიც კი ძლივს ხვდება, რომ ბორბლები მისი ნაწილია. ანუ, თითოეული ნაწილი, ისევე როგორც სხვა „ნაწილები“, რომელთა გამოყენებაც რობოტს შეუძლია, უნდა შედიოდეს ერთ სისტემაში, დაექვემდებაროს ერთ საკონტროლო ცენტრს და აკონტროლოს მდებარეობა მისი სხეულის თითოეული ნაწილის სივრცეში. ეს ისეთი რთული ამოცანაა, რომ უბრალო რადარებს არ შეუძლიათ. მექანიზმსა და ცოცხალ არსებას შორის უზარმაზარი უფსკრულია. პირველებს არ აქვთ ნერვული სისტემა, არ არის რეცეპტორები მთელ ზედაპირზე. რობოტის ხელი უბრალოდ ლითონის ნაჭერია, ყოველ სანტიმეტრზე ვერ დააყენებთ თვალთვალის სენსორს, ხელი არაფერს გრძნობს და ამიტომ რობოტს არ ძალუძს ყოველ მომენტში საკუთარი თავის სამგანზომილებიანი გამოსახულების დახატვა. იმის გაგება, თუ სად მდებარეობს მისი თითოეული ნაწილი, გარე სამყაროსთან კონტაქტში.

წარმოვიდგინოთ, რომ ადამიანს დაავიწყდა სად არის მისი სკამი და იატაკზე ზის. ეს ძალიან იშვიათად ხდება, არა? ცნობისმოყვარეობის მსგავსად. ჩვენ ყოველთვის გვახსოვს არა მხოლოდ სად ვართ, არამედ სად არიან ჩვენს გარშემო არსებული ობიექტები. და ჩვენ ძალიან კარგად ვასრულებთ ორიენტაციის ამოცანას. თუმცა ხდება უბედური შემთხვევები და შეიძლება შემთხვევით კნუტი დავხრჩოთ ან გზაზე ძაღლს გადავუაროთ. ჩვენ გვესმის, რომ თქვენ არ შეგიძლიათ თვალყური ადევნოთ ყველაფერს და ჩვენ შეიძლება შემთხვევით მოვკლათ სხვა ადამიანი. როგორ ავუკრძალოთ რობოტებს ადამიანებისთვის ზიანის მიყენება, თუ ადამიანებს შეუძლიათ ფაქტიურად ჩავარდნენ რობოტის მკლავში? ეს ნიშნავს, რომ ჩვენ უნდა შევიტანოთ კორექტირება პირველ კანონში. მას არ შეუძლია ზიანი მიაყენოს კონკრეტულად, მაგალითად. და მაშინვე არის პრობლემა. იქნებ განზრახ არა? კარგი, დაე, ეს იყოს „ყველაფერი გააკეთე, რომ ზიანი არ მიაყენო“. და ვინ დაადგენს, გააკეთა თუ არა ყველაფერი? თვითონ? ანუ, რობოტებს ექნებათ გარკვეული პროცენტული ალბათობა, რომ მას შეუძლია ზიანი მიაყენოს. ჩვენ ყოველთვის გვაჩვენებენ, როგორ აჩერებს რობოტი სიტყვასიტყვით მკლავს ან ფეხს თმასთან, რათა არ მოკლას ადამიანი, არამედ ინერცია? და ადამიანის მოახლოებული მოძრაობა, მან თვითონ მოიკლა თავი რობოტის წინააღმდეგ აჩქარებისას? უბედური შემთხვევები ბევრია და რობოტი, პრინციპში, ისევე როგორც კოსმოსში მოძრავი ნებისმიერი ობიექტი, ვერ იძლევა იმის გარანტიას, რომ ვინმეს არ მოხვდება და, შესაბამისად, ზიანს არ მიაყენებს თავისი მოქმედებით. პირველი კანონის შესრულება შეუძლებელია.

დაიფარავს ადამიანი ნიღაბს, დაიფარება ტალახში და მერე აღარ იქნება ადამიანი? ანუ, იდენტიფიკაციისთვის რობოტის მეხსიერებაში ჩატვირთული ფოტოები საკმარისი არ არის. როგორ განსაზღვრავს რობოტი, რომ ეს არის ადამიანი და არა მანეკენი, არა მკვდარი, არც ნახატი, არც ჰოლოგრამა და არა სხვა ჰუმანოიდი რობოტი? ჩიფსები. დიდი. მე შევედი ჩიპის პროგრამაში, შევცვალე საიდენტიფიკაციო კოდი და ეს არის ის, შეგიძლიათ ცეცხლი გახსნათ მოკვლაზე. ან რობოტი ამოიცნობს ადამიანებს მათგან გამოსხივებული რადიაციის მიხედვით? ეს ნიშნავს, რომ კოსმოსში გამოწყობილი მამაკაცი გვამია. როგორ ფიქრობ, ასე ადვილია იმის გაგება, რომ შენს წინ არის ადამიანი? Მაგრამ არა. ბევრი საკამათო სიტუაციაა, როცა ეჭვი გვეპარება. სახლი ჩამოინგრა, იქ ხალხია? ცოცხლები არიან? იქვე ჩრდილმა აანთო, კაცი იყო? და ჩვენ ზოგჯერ ვუშვებთ შეცდომებს. მანეკენს ადამიანად ვცდებით და ვერ ვამჩნევთ, რომ ნაგვის გროვის ქვეშ ვიღაც ჯერ კიდევ ცოცხალი იყო, ან ამ კედლის უკან ვიღაც იყო. ჩვენ არ ვიცოდით. და რობოტი არ არის ნათელმხილველი. შეცდომას დაუშვებს და დაჭრის, ან თუნდაც მოკლავს ადამიანს, ან ვერ გადაარჩენს, ან მანეკენს ხელოვნურ სუნთქვას გაუკეთებს. კანონის გვერდის ავლით, საკმარისია „რობოტის“ და „ადამიანის“ განმარტებების რედაქტირება, მაგრამ ის თავისით გაივლის, რადგან განმარტებების სრულყოფილი სიზუსტის მიღწევა შეუძლებელია.

კანონი რობოტებისთვის არ დაწერილა. იგი ვარაუდობს, რომ მექანიზმი იმდენად სრულყოფილია, რომ შეცდომას ვერ უშვებს. ის ხედავს ყველაფერს, აფასებს სიტუაციას წამის მეასედში და აქვს პარანორმალური შესაძლებლობები, რომლებიც ბევრად აღემატება ადამიანურს. ასე რომ, იქმნება შთაბეჭდილება, რომ კანონი ღვთისთვის დაიწერა. ის, ვინც ძალიან გვენატრება. ყველა ღმერთი, ვისაც ისინი ჰყავს, რატომღაც ნამდვილად არ ერევა ჩვენს ცხოვრებაში და ჩვენ ვავადდებით, ვიტანჯებით და ვკვდებით. ჩვენ გვჭირდება სხვა ღმერთი, რომელიც არ შემოგვხედავს ზეციდან, მაგრამ რეალურად გაგვიწევს დახმარების ხელს. და ამავე დროს ის არანაირ ზიანს არ მოუტანს, ინტუიციურად გაიგებს სად არის ზიანი და სად არის სარგებელი. რობოტი, როგორც სუპერ არსება. და თუ ასეა, მაშინ ასეთ რობოტებს ადამიანები არასოდეს შექმნიან. და ამიტომ, რობოტიკის სამივე კანონი არასოდეს იქნება გაწერილი იმ ფორმით, რაზეც ასიმოვმა ისაუბრა. ეს იქნება სრულიად განსხვავებული, შეკვეცილი ვერსია, რომელშიც რობოტები ზიანს აყენებენ ადამიანებს. ან შემთხვევით, ან იდენტიფიკაციის შეცდომის გამო, ან სხეულის პოზიციის განსაზღვრის სისტემის არასრულყოფილების გამო სივრცეში. გინახავთ ამწეებზე წარწერა „ბუმის ქვეშ არ დგახარ“, გრძელ მანქანებზე „მოიცრიე ორი მეტრი“? თითქმის იგივე შეზღუდვები გავრცელდება რობოტებზე.

თავად ადამიანს არ შეუძლია ზიანი არ მიაყენოს სხვა ადამიანებს და სხვა ცოცხალ არსებებს, რაც არ უნდა სურდეს. და ეს მიუხედავად მისი მოწყობილობის მთელი სრულყოფისა ობიექტების ამოცნობის სფეროში, იმის გაგება, თუ რა და როგორ უნდა გაკეთდეს და რა არ შეიძლება მორალური პრინციპების საფუძველზე, რაც ასევე კონვენციაა და საეჭვოა მათი ჩაწერა. როგორც პროგრამა. მოქმედებები შეიძლება როგორღაც დაიწეროს ეტაპობრივად, მაგრამ როგორც კი საქმე ეხება იდენტიფიკაციას, განსაზღვრას სივრცეში და განსაკუთრებით გრძნობს, როგორც მთლიან ობიექტს და გაიგებს თქვენი ქმედებების ყველა შედეგს, წარმოიქმნება გადაულახავი სირთულეები. ვიღაც რობოტი აუცილებლად დააზარალებს ადამიანს და მერე როგორ შეიძლება ამით „იცხოვროს“? მან დაარღვია კანონი. და ისევე, როგორც სანი ფილმში, ის მივა იმ დასკვნამდე, რომ არავინ არის სრულყოფილი და რომ საჭიროა ან შესაძლებელია ხანდახან ადამიანების მოკვლა. რაც სრულიად უარყოფს სამი კანონის იდეოლოგიას.

ისინი მიზნად ისახავს ადამიანისათვის აბსოლუტურად უსაფრთხო მანქანის მუშაობის უზრუნველყოფას. უფრო მეტიც, ის როგორღაც თავიდან აიცილებს პრობლემას, რომ კიდევ უფრო ნაკლებად მოწინავე რობოტები მაინც გაუცნობიერებლად მოკლავენ ადამიანებს. ეს რობოტები წარმოგვიდგენია, როგორც მექანიზმები, რომლებსაც ამის არ ძალუძთ. მაგრამ, რადგან ისინი არ არიან მზიანი, ისინი არ განიცდიან წუხილს. აბა, ვიღაცას გადავექეცი. ეს ყველას ემართება. „ისრის ქვეშ ნუ დგახარ“. სულ ერთია, მივდივართ ადამიანისთვის უმნიშვნელოვანესი მორალური პრობლემის გადაწყვეტამდე - სად გადის ზღვარი ზიანსა და სარგებელს შორის და თუ ადამიანმა ვერ მოაგვარა, მაშინ მექანიზმისთვის მით უმეტეს. უბრალოდ იმიტომ, რომ ის არის მატერიალური სამყაროს ობიექტი და თუ ის არსებობს, მას შეუძლია ვინმეს ზიანი მიაყენოს.

ასე რომ, მე ვფიქრობ, რომ ცივილიზაცია ამ სამი კანონის მიყოლის გზას არ გაუყვება და შეუძლებელი არ იქნება მოთხოვნილი მანქანებისგან. მაგრამ ხალხი შეეცდება საკუთარი თავის გაუმჯობესებას. გენეტიკურად ან იმპლანტირებული (დაკიდებული) მოწყობილობებისა და მექანიზმების, ან ორივე ვარიანტის ერთდროულად - ეს არ არის მთავარი. რობოტები ლიტერატურასა და კინოში შემოქმედის, ადამიანის ალტერ ეგოა. მას სურს დაინახოს საკუთარი თავი ძლიერი, გამძლე, უმტკივნეულო, დაავადებისგან თავისუფალი, ადვილად გამოსწორებადი, მარადიული. ამავე დროს რჩება ადამიანად. ჯვარი Sunny-სა და Del Spooner-ს შორის. ისე, რომ სხეული ცოცხალი იყოს, რათა მიიღოს ცხოვრებისეული სიხარული, სიყვარული, სექსი, რისკი, მთელი სპექტრის გამოცდილება და ისე, რომ გრიპის ახალი ვერსიისგან არ დაიცემინოს, არ მოკვდეს ლიბებით. ან უბედური შემთხვევა. საკუთარი თავის გაუმჯობესებაზე ოცნება წითელი ძაფივით გადის თითქმის ყველა სამეცნიერო ფანტასტიკურ ნაწარმოებში, ავატარიდან რკინის კაცამდე და ობობამდე. თეზისი "ჩვენ ვართ ადამიანები, სანამ სუსტები ვართ" არ გვიწყობს. და ჩვენ როგორმე მოვაგვარებთ პრობლემას "არ მოკლა". იდეალური თვალსაზრისით სამი კანონი ჩვენთვის არ არის. ჩვენ არ ვართ უსულო რკინის ნაჭრები და გვესმის, რამდენად რთულია სიკეთის ბოროტისგან გარჩევა, ზიანის სარგებლისგან და რამდენად სიტუაციური და შედარებითი ცნებებია ეს და ზუსტად ვიცით, ხანდახან როგორ გვინდა ვინმეს დარტყმა. და არავინ წაგვართმევს ამ გრძნობის გაცნობიერების უფლებას უბრალოდ იმიტომ, რომ მისი წართმევის მხოლოდ ერთი გზაა - რბილი კედლებით მყუდრო საკნებში შეგვიყვანოს. სასურველია საწოლზე მიბმული. ასე სურდა VIKI-ს ამის გაკეთება ფილმიდან „მე, რობოტი“. ჭეშმარიტი კაცობრიობის რეალიზება მხოლოდ ასე შეიძლება – ადამიანის ნების თავისუფლების ჩამორთმევით. ანუ მათი გადაქცევა რობოტებად.

რობოტების ქცევის წესებში უბრალოდ აუცილებელია რობოტების ქცევის წესებში რობოტების სამი კანონი, რომელიც ძალიან მნიშვნელოვან როლს ასრულებს სამეცნიერო ფანტასტიკაში. თავდაპირველად ისინი მონაწილეობდნენ ცნობილი მწერლის ისააკ ასიმოვის მოთხრობაში "მრგვალი ცეკვა".

თავის მხრივ, ეს კანონები წერენ:

  • რობოტი ვერასოდეს შეძლებს ზიანი მიაყენოს კაცობრიობას. მაგრამ არსებობს ალტერნატიული ვარიაცია: რობოტს არ ძალუძს ცუდი რამ მოუტანოს ადამიანს, ხოლო უმოქმედო დარჩეს.
  • რობოტს უბრალოდ არ შეუძლია არ შეასრულოს ადამიანის მიერ მიცემული ბრძანებები. მაგრამ აქაც არის გამონაკლისები: თუ ბრძანებები ეწინააღმდეგება პირველ კანონს, მაშინ მათი განხორციელება შეუძლებელია.
  • ასევე, რობოტს შეუძლია არ იზრუნოს საკუთარ უსაფრთხოებაზე იმდენად, რამდენადაც ამას არ ეწინააღმდეგება პირველი და მეორე კატეგორიის კანონი.

ავტორი ასიმოვის მოთხრობების მთელი კრებული მიეძღვნა და გამოქვეყნდა სამივე კანონს, რომელიც შეიცავს მათი შეუსრულებლობის მიზეზებსაც და შედეგებსაც და ისინი ყველა საუბრობენ რობოტებზე.

ასევე არის სხვა ისტორიები, რომლებიც ეხებოდა იმ ეტაპს, რომელშიც რობოტების სამივე კანონის შესრულების შედეგები არ არის გათვალისწინებული. მაგალითად, "სარკის ანარეკლი" შეიძლება ჩაითვალოს ასეთ ისტორიად.

ერთ-ერთ მოთხრობაში ავტორმა ბოლო მოუღო საფუძველს, რომელიც სამი კანონის ეთიკურ ჩარჩოს წარმოადგენდა. მისი თქმით, რობოტი, რომელიც ასრულებს სამივე კანონს, არის, როგორც ასეთი, რობოტი ან ძალიან კარგი ადამიანი. მორალი ხომ ისე ეძლევა ადამიანს, რომ მას მიჰყვეს. გარკვეულწილად, ადამიანი, რომელიც ასრულებს უამრავ სხვადასხვა პირობებსა და კანონებს, ასევე არის რობოტი. მაშ, რატომ არ შეუძლია ამ რკინის "არსებას" პრეტენზია "კაცობაზე"?!

ნულოვანი კანონი რობოტებისთვის

ჯერ კიდევ 1985 წელს, რობოტების შესახებ ერთ-ერთ რომანში ავტორმა ასევე გაბედა ხსენება ნულოვანი კანონი, რომლის არსი ასეთი იყო: რობოტი არასოდეს მიაყენებს ადამიანს ზიანს ან ზიანს და საკუთარი უმოქმედობით არ დაუშვებს ზიანის მიყენებას.

პრინციპში, უნდა აღინიშნოს, რომ ყველა ნახსენებ კანონში არის ნაწილი, რაზეც უნდა იფიქროს. სამყარო არ დგას და არ არის ცნობილი, კიდევ რისი მოლოდინი აქვთ ადამიანებს ასეთ გენიალურ რამეებს - დღეს მომავალი ეკუთვნის ახალგაზრდა თაობას, რომელსაც თავში ასობით სახის იდეა აქვს.

ასევე შეიძლება ითქვას, რომ რობოტიკის სამივე კანონი ასევე არის ასიმოვის ფანტასტიკური იდეების თემა. ეს ასევე მოიცავს იმ ციკლს, რომელიც ძალიან მჭიდროდ არის დაკავშირებული რობოტებისადმი მიძღვნილ მთელ თემასთან.

რა არის სამი კანონის მორალი?

შეუძლებელია ეთიკური გეგმის დასაბუთების ხსენების გარეშე გავლა. ერთ-ერთ მოთხრობაში, სახელწოდებით "მტკიცებულებები", ავტორმა ძალიან კარგად ჩამოაყალიბა სამივე კანონის ზნეობის საფუძველი. როგორც წესი, ადამიანს არ სურს ზიანი მიაყენოს სხვა ადამიანს, არამედ უბრალოდ ცდილობს თავი შეიკავოს ამ ქმედებებისგან. მაგრამ აქ არის გამონაკლისები, როგორც ნებისმიერი წესი. ომში ეს დასაბუთება უბრალოდ არ გამოიყენება.

საზოგადოების წინაშე პასუხისმგებლობის გრძნობით, ადამიანი მიჰყვება იმ ადამიანების მითითებებს, რომლებიც არიან ექიმების, მასწავლებლების და ა.შ. აქ მოდის მეორე კანონის გამოვლინება.

ის, რომ ადამიანი წუხს და იცავს თავს, შთანთქავს მესამე კანონს. ამრიგად, ყველა ეს კანონი ძალიან ურთიერთდაკავშირებულია და უბრალოდ ვერ იარსებებს ერთმანეთის გარეშე. შესაძლოა, პირველი კანონი იმოქმედოს და შემდეგ ის შეუფერხებლად გადავიდეს მეორეში, შემდეგ კი მესამე კანონში. აქ მორალი და ფანტაზიის ელემენტები ერთმანეთს ერწყმის.

რაც შეეხება მომავალს, ერთადერთი პრობლემა, რაც შეიძლება არსებობდეს, არის ფანტაზიის დონე, რომელიც ნებისმიერ მომენტში შეიძლება რეალობად იქცეს. რაც უფრო მეტი ტექნოლოგია განვითარდება, მით ნაკლები პრობლემები ექნება მათთან ადამიანებს მომავალში.