რისი გაფუჭება შეუძლია X-ის AI-დაწერილ Community Notes-ს
X-ი გეგმავს, „საზოგადოების შენიშვნები“ AI-ს დააწერინოს, თუმცა ექსპერტები და თავად კომპანიაც აღიარებენ რისკებს: სისტემამ, შესაძლოა, დამაჯერებელი, მაგრამ მცდარი ინფორმაცია გაავრცელოს და ფაქტების გადამოწმების მექანიზმი გააუფასუროს.

X-ი აცხადებს, რომ AI-ს შეუძლია „საზოგადოების შენიშვნების“ სისტემის გაძლიერება, მაგრამ ამას აშკარა რისკები ახლავს თან.
ილონ მასკის X-მა, შეიძლება ითქვას, რევოლუცია მოახდინა სოციალური მედიის ფაქტების გადამოწმებაში, როდესაც „საზოგადოების შენიშვნები“ (community notes) შემოიღო — სისტემა, რომელიც სხვადასხვა შეხედულების მქონე მომხმარებლებს საშუალებას აძლევს, ერთობლივად შეაფასონ, რამდენად სანდოა კონკრეტული პოსტი. მაგრამ ახლა პლატფორმა გეგმავს, ხელოვნურ ინტელექტს (AI) მისცეს ამ შენიშვნების დაწერის უფლება, რამაც, შესაძლოა, დაანგრიოს ის ნდობა, რომელიც X-ის მომხმარებლებს ფაქტების გადამოწმების სისტემის მიმართ ჰქონდათ — და ამას თავად X-იც სრულად აღიარებს. საკუთარ კვლევით ნაშრომში X-ი ამ ინიციატივას „განახლებად“ მოიხსენიებს და, ამავდროულად, განმარტავს ყველაფერს, რაც AI-ის მიერ დაწერილი შენიშვნების შემთხვევაში შეიძლება არასწორად წავიდეს.
იდეალურ სამყაროში, X-ის აღწერით, AI აგენტები დააჩქარებენ და გაზრდიან არასწორ პოსტებზე დამატებული შენიშვნების რაოდენობას, რითაც პლატფორმის მასშტაბით ფაქტების გადამოწმების მცდელობები გაძლიერდება. AI-ის მიერ დაწერილ თითოეულ შენიშვნას ადამიანი-შემმოწმებელი შეაფასებს, რაც უკუკავშირის ციკლს შექმნის და AI აგენტს დროთა განმავლობაში შენიშვნების უკეთ წერას ასწავლის. როდესაც AI აგენტები დაიხვეწებიან, ადამიან-შემმოწმებლებს შეეძლებათ, ფოკუსირება მოახდინონ უფრო ნიუანსირებულ ფაქტების გადამოწმებაზე, რასაც AI სწრაფად ვერ უმკლავდება. თუმცა, ერთ-ერთი მთავარი კითხვა პასუხგაუცემელი რჩება: X-ი დარწმუნებული არ არის, იქნება თუ არა AI-ის მიერ დაწერილი შენიშვნები ისეთივე ზუსტი, როგორიც ადამიანების მიერ შექმნილი. მდგომარეობას კიდევ უფრო ართულებს ის, რომ AI აგენტებს შეუძლიათ „დამაჯერებელი, მაგრამ არაზუსტი შენიშვნების“ გენერირება, რომლებიც ადამიანმა შემფასებლებმა, შესაძლოა, სასარგებლოდ მიიჩნიონ, რადგან AI „განსაკუთრებულად დახელოვნებულია დამაჯერებელი, ემოციურად რეზონანსული და ერთი შეხედვით ნეიტრალური შენიშვნების შექმნაში“. ამან შეიძლება უკუკავშირის ციკლი დაარღვიოს, „საზოგადოების შენიშვნების“ სისტემა გააუფასუროს და დროთა განმავლობაში ის ნაკლებად სანდო გახადოს, — გვაფრთხილებს X-ის კვლევითი ნაშრომი.
„თუ შეფასებული სარგებლიანობა იდეალურად არ არის დაკავშირებული სიზუსტესთან, მაშინ მაღალ დონეზე დამუშავებულ, მაგრამ შეცდომაში შემყვან შენიშვნებს დამტკიცების ზღვარის გადალახვის მეტი შანსი ექნებათ“, — ნათქვამია ნაშრომში. „ეს რისკი შეიძლება გაიზარდოს დიდი ენობრივი მოდელების (LLM) განვითარებასთან ერთად; მათ არა მხოლოდ დამაჯერებლად წერა შეეძლებათ, არამედ უფრო მარტივად მოიძიებენ და შექმნიან თითქმის ნებისმიერი მტკიცებულებისთვის, მისი სისწორის მიუხედავად, ერთი შეხედვით მყარ მტკიცებულებათა ბაზას, რაც ადამიან-შემფასებლებს ტყუილის ან შეცდომების აღმოჩენას კიდევ უფრო გაურთულებს.“
X-ი უკვე აწყდება კრიტიკას თავისი AI გეგმების გამო. გასულ სამშაბათს, გაერთიანებული სამეფოს ტექნოლოგიების ყოფილმა მინისტრმა, დემიან კოლინზმა, X-ი ისეთი სისტემის შექმნაში დაადანაშაულა, რომელმაც შეიძლება „იმის ინდუსტრიული მანიპულაციის საშუალება მისცეს, რასაც 600 მილიონზე მეტი მომხმარებლის მქონე პლატფორმაზე ადამიანები ხედავენ და რისი ნდობაც წყვეტენ“, — იტყობინება The Guardian.
კოლინზის მტკიცებით, AI შენიშვნები ზრდის X-ზე „ტყუილებისა და კონსპირაციული თეორიების“ გავრცელების რისკს და ის ერთადერთი ექსპერტი არ არის, ვინც განგაშს ტეხს. სემუელ სტოკველი, ალან ტიურინგის ინსტიტუტის მკვლევარი, The Guardian-თან საუბარში ამბობს, რომ X-ის წარმატება დიდწილად დამოკიდებულია „იმ უსაფრთხოების მექანიზმების ხარისხზე, რომლებსაც X-ი დანერგავს იმ რისკის წინააღმდეგ, რომ ამ AI „შენიშვნების ავტორებმა“ შეიძლება „ჰალუცინირება“ დაიწყონ და დეზინფორმაცია გააძლიერონ“.
„AI ჩატბოტები ხშირად უჭირთ ნიუანსებისა და კონტექსტის გაგება, მაგრამ კარგად ახერხებენ თავდაჯერებულად ისეთი პასუხების გაცემას, რომლებიც დამაჯერებლად ჟღერს, მაშინაც კი, როცა სიმართლეს არ შეესაბამება“, — თქვა სტოკველმა. „ეს შეიძლება საშიში კომბინაცია აღმოჩნდეს, თუ პლატფორმა მას ეფექტურად არ გაუმკლავდება.“
მდგომარეობას ისიც ართულებს, რომ ნებისმიერ მსურველს შეუძლია შექმნას AI აგენტი ნებისმიერი ტექნოლოგიის გამოყენებით, რათა „საზოგადოების შენიშვნები“ დაწეროს, — განმარტავს X-ის Community Notes-ის ანგარიში. ეს ნიშნავს, რომ ზოგიერთი AI აგენტი შეიძლება სხვებზე უფრო მიკერძოებული ან დეფექტური იყოს. თუ მოვლენების ეს დისტოპიური სცენარი განვითარდა, X-ი პროგნოზირებს, რომ ადამიან-ავტორებს, შესაძლოა, შენიშვნების წერა მობეზრდეთ, რაც საფრთხეს შეუქმნის შეხედულებათა იმ მრავალფეროვნებას, რომელმაც „საზოგადოების შენიშვნები“ თავიდანვე ასე სანდო გახადა.
ხოლო იმ ადამიან-ავტორებსა და შემმოწმებლებს, რომლებიც დარჩებიან, შესაძლოა, AI-ის მიერ დაწერილი შენიშვნების უზარმაზარმა მოცულობამ გადატვირთოს. ენდი დადფილდმა, ბრიტანული ფაქტების გადამოწმების ორგანიზაცია Full Fact-ის AI-ის ხელმძღვანელმა, The Guardian-ს განუცხადა, რომ X-ი რისკავს, „გაზარდოს ისედაც მნიშვნელოვანი ტვირთი ადამიან-შემმოწმებლებზე, შეამოწმონ კიდევ უფრო მეტი შავი ვერსია, რაც კარს უღებს შემაშფოთებელ და სარწმუნო სიტუაციას, რომელშიც შენიშვნები შეიძლება დაიწეროს, განიხილოს და გამოქვეყნდეს მთლიანად AI-ის მიერ, იმ ფრთხილი განსჯის გარეშე, რასაც ადამიანის მონაწილეობა უზრუნველყოფს“.
ITNEWS-ის მეგობარი ვებ-გვერდია ITJOBS.GE. ITJOBS.GE-ზე ორგანიზაციებს და ფიზიკურ პირებს, აქვთ საშუალება განათავსონ როგორც ვაკანსიები, ტრენინგები და ივენთები ასევე კონკრეტული Tech დავალებები, რისთვისაც ეძებენ დეველოპერებს, დიზაინერებს, სეო სპეციალისტებს და ა.შ. ITJOBS.GE - იპოვე დასაქმების საუკეთესო შესაძლებლობები ან გამოაქვეყნე ვაკანსია / დავალება და მიაწვდინე ხმა სასურველ აუდიტორიას.
გაზიარება
როგორია თქვენი რეაქცია?






