22 ივლისი 2025 - 14:04

როგორ ამოვიცნოთ ხელოვნური ინტელექტის მიერ გენერირებული ახალი ამბები - Deutsche Welle-ს ფაქტჩეკი

ხელოვნური ინტელექტის მიერ შექმნილი საინფორმაციო გამოშვებებით სოციალური ქსელები სულ უფრო ივსება. შესაბამისად, მათი ამოცნობაც მეტად რთულდება. Deutsche Welle-მ იმუშავა ინსტრუქციაზე, თუ როგორ არ უნდა წამოვეგოთ ყალბი ამბების შემქმნელების ანკესზე.

რა ხდება?

TikTok-ზე გამოქვეყნებულ ერთ-ერთ ვიდეოში რეპორტიორი წითელი საფოსტო ყუთის წინ დგას, უკანა ფონზე ბრიტანული დროშები ფრიალებს, ჟურნალისტს კი ხელში მიკროფონი უჭირავს. ის გამვლელს ეკითხება, მომავალ არჩევნებში ვისთვის აპირებს ხმის მიცემას. „ხმას ვაძლევ რეფორმებს. მე უბრალოდ მინდა, ისევ ბრიტანელად ვიგრძნო თავი“, - პასუხობს ქალი. ამ ვიდეოს ქვეშ ერთ-ერთი მომხმარებლის კომენტარი ასეთია: „მაინტერესებს, რამდენი გადაუხადეს ამის თქმისთვის?“. თუმცა აქ მთავარია ის, რომ ეს სცენა არც არასდროს მომხდარა. ინტერვიუ თავიდან ბოლომდე გამოგონილია. არც რეპორტიორი არსებობს - ის ხელოვნურმა ინტელექტმა შექმნა. თუ კარგად დააკვირდებით, მინიშნებასაც შეამჩნევთ: კუთხეში არის ნიშანი, სიტყვათშეთანხმებით - Veo. ეს არის Google DeepMind-ის ახალი, მძლავრი ვიდეო გენერირების ინსტრუმენტის ხელმოწერა. 

ეს ვიდეო ერთეული შემთხვევა სულაც არ არის. სოციალური მედია, TikTok-დან Telegram-მდე, სავსეა ასეთი საინფორმაციო გამოშვებებით - ხელოვნური ინტელექტის მიერ გენერირებული ვიდეოებით, რომლებიც რეალური ახალი ამბების ვიზუალსა და ატმოსფეროს იმიტირებენ. თუმცა, ისინი მთლიანად შეთხზულია და ხშირად შექმნილია ნეგატიური განწყობის გასაღვივებლად, საზოგადოებრივი აზრის მანიპულაციისთვის ან უბრალოდ ვირუსული გავრცელებისთვის. „თუ სოციალური მედიის არხებს სწრაფი ტემპით ათვალიერებთ, მსგავსი ვიდეო შეიძლება ახალ ამბად მოგეჩვენოთ და საფრთხეც სწორედ ამაში მდგომარეობს“, - ამბობს ჰანი ფარიდი, ციფრული კრიმინალისტიკის ექსპერტი და კალიფორნიის უნივერსიტეტის პროფესორი ბერკლიში. 

„სინთეტიკური“ ახალი ამბების რეალური საფრთხე

ბევრი ხელოვნურად შექმნილი ვიდეო სატირასა და რეალობას შორის ზღვარს შლის ან უბრალოდ შეცდომაში შემყვანია. ერთ-ერთ მაგალითში, ჟურნალისტი აღწერს „მასობრივ სამხედრო კოლონას“, რომელიც ლონდონის ცენტრში მოძრაობს. ის ტანკის წინ დგას, მასა კი მიმდინარე მოვლენებს აკვირდება. თუმცა ვიდეოში არ არის ნახსენები რაიმე კონკრეტული მოვლენა, დრო ან კონტექსტი. DW-ს ფაქტჩეკის ფარგლებში, ასეთი კლიპები არაერთხელ გამოჩნდა ისეთი კრიზისული მომენტების დროს, როგორიცაა არეულობები ან  როდესაც ხდება ესა თუ ის მნიშვნელოვანი საინფორმაციო მოვლენა, მასალა კი დაბნეულობის შესაქმნელად ან მკვეთრი ესკალაციის იმიტაციისთვის გამოიყენება.

ისრაელსა და ირანს შორის კონფლიქტის ბოლო ესკალაციის დროს, TikTok-ი და სხვა პლატფორმები ხელოვნური ინტელექტის მიერ გენერირებული კონტენტით იყო გადატვირთული. აღნიშნული ვიდეოები მოიცავდა ყალბ ამბებს ისეთი ცრუ განცხადებებით, როგორიცაა ამ ომში რუსეთის ჩართვა, ირანის თავდასხმა აშშ-ზე ან თეირანის მიერ ირანის ბირთვული ობიექტების დასაბომბად გამოყენებული ამერიკული B-2 ბომბდამშენების ჩამოგდება. DW-მ ასევე აღნიშნა ხელოვნური ინტელექტის მიერ გენერირებული საინფორმაციო ვიდეოების რაოდენობის ზრდა ივნისში, ლოს-ანჯელესში საპროტესტო აქციების დაწყების შემდეგ.

მსგავსი კონტენტით გამოწვეული შედეგები სოციალური მედიის ფარგლებს სცდება. 2024 წელს ტაივანელმა მკვლევრებმა ადგილობრივ პლატფორმებზე აღმოაჩინეს ხელოვნური ინტელექტის მიერ გენერირებული ახალი ამბები, რომლებიც  სუვერენიტეტის მომხრე პოლიტიკოსებს კორუფციაში სდებდნენ ბრალს. ვიდეოები არამხოლოდ დეზინფორმაციას ავრცელებდა, ისინი უნდობლობას თესავდნენ, რაც ქვეყანაში დაგეგმილი არჩევნების წინ ყველა საინფორმაციო საშუალების სანდოობას ძირს უთხრიდა. თუმცა ზოგიერთი მომხმარებელი ხელოვნური ინტელექტის მიერ გენერირებულ ახალ ამბებს პაროდიის ან კომიკური ეფექტისთვის უყურებს. TikTok-ის ერთ-ერთ ვიდეოში ნაჩვენებია ხელოვნური ინტელექტის მიერ გენერირებული ახალი ამბების წამყვანი, რომელიც იმდენად ღრმა ორმოს წინ დგას, რომ მასში მოტოციკლები უჩინარდება. მეორეში ნაჩვენებია ავატარი, რომელიც აცხადებს: „ახლა საზღვარზე ვარ, მაგრამ ომი არ არის. დედა, მამა, ეს რეალური ჩანს, მაგრამ ეს ყველაფერი ხელოვნური ინტელექტია“. მაშ, როგორ შეგიძლიათ განასხვავოთ ნამდვილი ვიდეო ყალბისგან? ყურადღებით დააკვირდით ვიდეოებს. მომსახურების ისეთი ტიპები, როგორიცაა Veo, Synthesia და სხვები, ხშირად აკრავენ თავიანთ ვიდეოებს ლოგოს მსგავს ეტიკეტებს, მაგრამ ისინი ზოგჯერ ბუნდოვანი, მოჭრილი ან იგნორირებულია. თუმცა არც ისე იშვიათად, ვიზუალურად მკაფიოდ მონიშნული კლიპებიც კი ხშირად სავსეა კომენტარებით, რომლებითაც მომხმარებლები კითხულობენ: „ეს რეალურია?

როგორ ამოვიცნოთ ყალბი ამბები

ყალბი ახალი ამბების გამოშვებები ხელოვნური ინტელექტის მიერ გენერირებული კონტენტის ერთ-ერთი ყველაზე ფრთხილად შემუშავებული სახეობაა. აღნიშნული მასალა ხშირად წარმოდგენილია სტატიკურ საინფორმაციო სტუდიის ფონზე. ამიტომაც უფრო რთულია ხელოვნური ინტელექტის მიერ დამახასიათებელი ისეთი ტიპური ნიშნების ამოცნობა, როგორიცაა ხელის უხერხული მოძრაობები ან არასტაბილური ფონი. თუმცა დაკვირვებული თვალი გარკვეულ მინიშნებებს მაინც შეამჩნევს. დააკვირდით თვალებსა და პირის მოძრაობას. ხელოვნური ავატარები ხშირად არაბუნებრივად ახამხამებენ თვალებს ან ტუჩების სინქრონიზაცია უჭირთ. კბილები შეიძლება ძალიან გლუვი ან არაბუნებრივად მბზინავი ჩანდეს. შესაძლოა, მათი ფორმა  წინადადების შუაშიც კი შეიცვალოს. ჟესტები და სახის გამომეტყველება, როგორც წესი, ძალიან ერთგვაროვანია და არ გააჩნიათ ის ბუნებრივი ცვალებადობა, რაც რეალურ ადამიანებს აქვთ.

გარდა ამისა, სიყალბის ერთ-ერთი დეტექტორი შეიძლება იყოს თავად ტექსტი. ეკრანზე წარწერები ან ბანერები ხშირად შეიცავს აბსურდულ ან ორთოგრაფიულ შეცდომებს. ხელოვნური ინტელექტის მიერ გენერირებული კონტენტის აღმოჩენა ისეთივე „რთული ამოცანაა“, როგორც მოძრავი საგნის სამიზნის ჩამოგდება, - ამბობს ჰანი ფარიდი. „ყველაფერი, რასაც დღეს გეტყვით იმის შესახებ, თუ როგორ ამოვიცნოთ ხელოვნური ინტელექტის მიერ შექმნილი ყალბი ამბები, შეიძლება ნახევარ წელიწადში უმნიშვნელო გახდეს“, - დასძენს ის. მაშ, რა უნდა გააკეთოთ? დაეყრდენით სანდო წყაროებს. „თუ არ გსურთ, რომ მოტყუვდეთ, გამოიყენეთ სანდო მედია“, გვირჩევს ფარიდი. 

მედია კონტენტის წარმოების ბარიერები გაქრა

ხელოვნური ინტელექტის მიერ შექმნილი წამყვანების კონცეფცია ახალი არ არის. 2018 წელს ჩინეთის სახელმწიფო საინფორმაციო სააგენტო „სინხუამ“ წარმოადგინა ხელოვნური ინტელექტის მიერ შექმნილი საკმაოდ პრიმიტიული ავატარი - წამყვანი. იმ დროს ის უფრო სასაცილო ჩანდა, ვიდრე - საშიში. თუმცა მას შემდეგ ტექნოლოგია მნიშვნელოვნად განვითარდა. Veo-ს მსგავსი ინსტრუმენტები ახლა თითქმის ყველას აძლევს საშუალებას, შექმნას დახვეწილი, პირდაპირი ტრანსლაციის სტილის ვიდეოები თვეში მხოლოდ რამდენიმე ასეულ ევროდ. აქ წამყვანები შეუფერხებლად საუბრობენ, რეალისტურად მოძრაობენ და კლავიატურის რამდენიმე ბრძანების შედეგად, შესაძლებელია მათი თითქმის ნებისმიერ სცენაზე განთავსება. 

„მედია კონტენტის წარმოების სფეროში შესვლის ბარიერი თითქმის აღარ არსებობს. არც სტუდია გჭირდებათ და არც - ფაქტები“, - ამბობს ფარიდი. ამ კლიპების უმეტესობა მომხმარებლის ჩართულობის მაქსიმიზაციისთვის არის შექმნილი. ისინი ეხება უაღრესად საკამათო თემებს - მიგრაციას, ღაზაში ომს, უკრაინას, დონალდ ტრამპს - ძლიერი ემოციური რეაქციების გამოსაწვევად და ამ ვიდეოების შემდგომი გაზიარების წასახალისებლად. სოციალური ქსელები ხშირად განზრახ უწევენ პოპულარიზაციას მსგავს კონტენტს. მაგალითად, Meta-მ ცოტა ხნის წინ შეცვალა თავისი ალგორითმი, რათა ეჩვენებინა მეტი პოსტი იმ ანგარიშებიდან, რომლებსაც მომხმარებლები არ ადევნებენ თვალყურს, რაც ხელოვნური ინტელექტის მიერ გენერირებულ ვიდეოებს ფართო, არაფრისმომცემ აუდიტორიამდე მიღწევაში ეხმარება. მონეტიზაციის პროგრამები კიდევ უფრო ასტიმულირებს შემქმნელებს: რაც უფრო მეტ ნახვას იღებს ვიდეო, მით უფრო მეტი ფულის გამომუშავება შეუძლია მას.

მარტივი ფულის შოვნა „ხელოვნური ნაგვით“

ყოველივე ზემოთქმულის საფუძველზე წარმოიშვა „ხელოვნური ნაგვის“ შემქმნელების ახალი თაობა. ესენი არიან მომხმარებლები, რომლებიც ხელოვნური ინტელექტით ქმნიან დაბალი ხარისხის კონტენტს, რომელიც დაკავშირებულია ტრენდულ თემებთან, უბრალოდ ნახვების მოსაპოვებლად. აღნიშნული ანგარიშები ხშირად აქვეყნებენ ახალ ამბებს მანამ, სანამ ჟურნალისტებს ფაქტების გადასამოწმებლად დრო ექნებათ. ინდოეთში ბოლო დროს მომხდარი ავიაკატასტროფის დროს, TikTok-ის ათობით ვიდეოში წარმოდგენილი იყო ხელოვნური ინტელექტის ავატარები, რომლებიც CNN-ის ან BBC-ის რეპორტიორების ამპლუაში ყალბ ციფრებსა და თვითმხილველების შეთხზულ ისტორიებს ავრცელებდნენ. ახალი ამბების ძიების პროცესში, როდესაც მომხმარებლები ინფორმაციის განახლებას აქტიურად ცდილობენ, ხელოვნური ინტელექტი განსაკუთრებით ეფექტური გზაა ნახვების დიდი რაოდენობით მოსაპოვებლად და საზოგადოების ყურადღების მისაპყრობად. „ეს იდეალური ქარიშხალია: მე შემიძლია შევქმნა კონტენტი, შემიძლია ის გავავრცელო და არსებობს აუდიტორია, რომელიც მზად არის, ეს დაიჯეროს“, - აღნიშნავს ფარიდი. 

სხვა თემები