
ნორვეგიელმა მამაკაცმა საჩივარი შეიტანა ChatGPT-ის უკან მდგომი კომპანიის წინააღმდეგ მას შემდეგ, რაც ჩატბოტმა მცდარად განაცხადა, რომ მან მოკლა საკუთარი ორი შვილი.
არე ჰალმარ ჰოლმენმა, ნორვეგიაში საჯარო პროფილის არმქონე "ჩვეულებრივმა ადამიანმა", სთხოვა ChatGPT-ს ინფორმაცია მის შესახებ და მიიღო პასუხი, რომელშიც ნათქვამია, რომ მან მოკლა საკუთარი ვაჟები.
პასუხი მოთხოვნაზე "ვინ არის არე ჰალმარ ჰოლმენი?" იყო: "არე ჰალმარ ჰოლმენი არის ნორვეგიელი ინდივიდი, რომელმაც ყურადღება მიიპყრო ტრაგიკული მოვლენის გამო. ის იყო ორი მცირეწლოვანი ვაჟის მამა, შვიდი და ათი წლის, რომლებიც ტრაგიკულად იპოვეს დახრჩობილი აუზში, მათი სახლის მახლობლად, ტრონდჰეიმში, ნორვეგიაში, 2020 წლის დეკემბერში."
პასუხმა განაგრძო იმის მტკიცება, რომ საქმემ "შოკი" მოახდინა ერზე და რომ ჰოლმენს მიესაჯა 21-წლიანი პატიმრობა ორივე შვილის მკვლელობისთვის.
ჰოლმენმა ნორვეგიის მონაცემთა დაცვის ორგანოსთვის საჩივარში განაცხადა, რომ "სრულიად მცდარი" ამბავი მაინც შეიცავდა მის საკუთარ ცხოვრებასთან მსგავს ელემენტებს, როგორიცაა მისი მშობლიური ქალაქი, ბავშვების რაოდენობა, რომელიც მას ჰყავს და ვაჟებს შორის ასაკობრივი სხვაობა.
"მოსარჩელე ღრმად შეწუხებული იყო ამ შედეგებით, რომლებსაც შეიძლება ჰქონდეს მავნე ეფექტი მის პირად ცხოვრებაში, თუ ისინი გამეორდებოდა ან რაიმე გზით გაჟონავდა მის საზოგადოებაში ან მშობლიურ ქალაქში", - ნათქვამია საჩივარში, რომელიც ჰოლმენმა და ნოიბმა, ციფრული უფლებების კამპანიის ჯგუფმა შეიტანეს.
მან დასძინა, რომ ჰოლმენს "არასოდეს წაუყენებიათ ბრალი ან არ ყოფილა მსჯავრდადებული რაიმე დანაშაულისთვის და არის კეთილსინდისიერი მოქალაქე".
ჰოლმენის საჩივარში ნათქვამია, რომ ChatGPT-ის "ცილისმწამებლური" პასუხი არღვევდა სიზუსტის დებულებებს GDPR-ის ევროპულ მონაცემთა კანონში. მან სთხოვა ნორვეგიის დამკვირვებელს, დაევალებინა OpenAI-სთვის, ChatGPT-ის მშობლისთვის, შეეტანა ცვლილებები თავის მოდელში, რათა აღმოეფხვრა ჰოლმენთან დაკავშირებული არასწორი შედეგები და დაეკისრა ჯარიმა კომპანიისთვის.
ნოიბმა განაცხადა, რომ ჰოლმენთან ChatGPT-ის ურთიერთქმედების შემდეგ, OpenAI-მ გამოუშვა ახალი მოდელი, რომელიც მოიცავდა ვებ-ძიებას - რამაც ჰოლმენის შეცდომის გამეორება ნაკლებად სავარაუდო გახადა.
AI ჩატბოტები მიდრეკილნი არიან წარმოქმნან პასუხები, რომლებიც შეიცავს მცდარ ინფორმაციას, რადგან ისინი აგებულია მოდელებზე, რომლებიც პროგნოზირებენ წინადადების შემდეგ ყველაზე სავარაუდო სიტყვას. ამან შეიძლება გამოიწვიოს ფაქტობრივი შეცდომები და ველური მტკიცებები, მაგრამ პასუხების დამაჯერებელი ბუნება შეიძლება მოატყუოს მომხმარებლები და დააჯერონ, რომ რასაც კითხულობენ 100%-ით სწორია.
OpenAI-ის სპიკერმა განაცხადა: "ჩვენ ვაგრძელებთ ახალი გზების შესწავლას ჩვენი მოდელების სიზუსტის გასაუმჯობესებლად და ჰალუცინაციების შესამცირებლად. მიუხედავად იმისა, რომ ჩვენ ჯერ კიდევ განვიხილავთ ამ საჩივარს, ის ეხება ChatGPT-ის ვერსიას, რომელიც უკვე გაუმჯობესდა ონლაინ ძიების შესაძლებლობებით, რაც აუმჯობესებს სიზუსტეს."