
OpenAI-მ აღმოაჩინა, რომ ჩინეთში მოქმედი მრავალი ჯგუფი მის ხელოვნური ინტელექტის ინსტრუმენტებს (როგორიცაა ChatGPT-ი და ხელოვნური ინტელექტის სხვა მოდელები) ფარული საქმიანობისთვის იყენებს.
ChatGPT-ის დამფუძნებლის განცხადებით, მიუხედავად იმისა, რომ ამ ჯგუფების მიერ გამოყენებული მასშტაბები და ტაქტიკა გაფართოვდა, აღმოჩენილი ოპერაციები, როგორც წესი, მცირე მასშტაბისაა და შეზღუდული აუდიტორიისთვის იყო განკუთვნილი.
ChatGPT 2022 წლის ბოლოს შეიქმნა და გაჩნდა შეშფოთება გენერაციული ხელოვნური ინტელექტის ტექნოლოგიის პოტენციურ შედეგებთან დაკავშირებით, რომლებსაც შეუძლია სწრაფად და მარტივად ადამიანის მსგავსად შექმნას ტექსტი, სურათები და აუდიო მასალა.
OpenAI-მ ChatGPT-ის ანგარიშები აკრძალა, რომლებიც სოციალურ მედიაში ჩინეთისთვის აქტუალურ პოლიტიკურ და გეოპოლიტიკურ თემებზე პოსტებს აქვეყნებდნენ, მათ შორის ტაივანზე ორიენტირებული ვიდეო თამაშის კრიტიკას, პაკისტანელი აქტივისტის წინააღმდეგ მიმართულ ცრუ ბრალდებებს და USAID-ის დახურვასთან დაკავშირებულ კონტენტს.
ასევე ჩინეთთან დაკავშირებული საფრთხის შემქმნელები ხელოვნურ ინტელექტს კიბეროპერაციების სხვადასხვა ფაზის განსავითარებლად იყენებდნენ, მათ შორის ღია კოდის კვლევის, სკრიპტების მოდიფიკაციის, სისტემის კონფიგურაციების პრობლემების მოგვარების, პაროლის დაუშვებლად გამოყენებისა და სოციალური მედიის ავტომატიზაციის ინსტრუმენტების შემუშავების მიზნით.
OpenAI-ის მიერ აღმოჩენილი მორიგი შემთხვევა ჩინეთში დაიწყო, რომელიც ქმნიდა პოლარიზებულ სოციალურ მედიაში არსებულ კონტენტს, მხარს უჭერდა აშშ-ის პოლიტიკურ დისკურსში არსებულ საკამათო თემების შესახებ საპირისპირო თვალსაზრისებს და იყენებდა ხელოვნური ინტელექტის მიერ გენერირებულ ტექსტს და ყალბი პროფილის სურათებს.
ჩინეთის საგარეო საქმეთა სამინისტრომ არ უპასუხა Reuters-ის მოთხოვნას OpenAI-ის დასკვნებზე კომენტარის გაკეთების შესახებ.
0
0