“Science” jurnalında dərc olunan bir araşdırma süni intellektin siyasi baxışları dəyişdirmək gücünü ortaya qoyub.
Bir neçə il əvvəl həyatımıza daxil olan süni intellekt getdikcə daha çox güc qazanır. 2025-ci ilin dekabr ayında “Science” jurnalında dərc olunan genişmiqyaslı araşdırma, süni intellektin insanları siyasi məsələlərdə inandırmaq gücünü ölçüb. Belə ki, Oksford İnternet İnstitutu, MIT və Böyük Britaniya Süni İntellekt Təhlükəsizliyi İnstitutunun tədqiqatçıları tərəfindən aparılan araşdırma, böyük dil modellərinin (LLM) siyasi baxışları dəyişdirmək qabiliyyətini sistematik şəkildə sınaqdan keçirən ilk təcrübələrdən biridir.
Tədqiqatın əsas sualı bunlar olub: süni intellektlə fikir mübadiləsi həqiqətən insanların siyasi baxışlarını dəyişdirə bilərmi? Əgər belədirsə, bu inandırıcı gücün arxasında hansı mexanizmlər dayanır?
Tədqiqat necə aparılıb?
Tədqiqat qrupu 2024-cü ilin dekabrı ilə 2025-ci ilin may ayı arasında Böyük Britaniyadan olan cəmi 76.977 iştirakçı ilə üç ayrı təcrübə aparıb. İştirakçılara səhiyyə, təhsil, immiqrasiya, iqlim dəyişikliyi, iqtisadiyyat və milli təhlükəsizlik kimi müxtəlif sahələrdə ümumilikdə 697 fərqli siyasi baxış təqdim edilib. Hər bir iştirakçıya təsadüfi olaraq bir siyasi mövzu təyin edilib və əvvəlcə həmin şəxslər 0-dan 100-ə qədərlik şkalalar üzrə həmin mövzuya maraqları ilə bağlı mövqelərini bildiriblər.
Daha sonra iştirakçılar təsadüfi qaydada qruplara bölünüblər. İştirakçıların bir qismi süni intellekt modelləri ilə canlı söhbətlərdə iştirak edib, digər bir qismi süni intellekt tərəfindən yaradılan statik mesajları oxuyub, başqa bir qrup isə heç bir müdaxilə olmadan nəzarət qrupu kimi fəaliyyət göstərib. Sınaqlarda GPT-4.0, GPT-4.5, Llama, Qwen və Grok da daxil olmaqla 13 fərqli süni intellekt modelindən istifadə edilib. Bəzi modellərdən olduğu kimi yararlanılıb, digərlərinə isə "inandırma" mövzusunda xüsusi təlimlər keçiblər.
Süni intellekt insanları inandıra bilər
Tədqiqatın ən təəccüblü nəticəsi süni intellektlə söhbətlərin insanların siyasi düşüncələrinin dəyişdirilməsində həqiqətən təsirli olması idi. Orta hesabla, süni intellektlə söhbət edən iştirakçılar siyasi düşüncələrinin 0-100 şkala üzərindən 8-9 bal dəyişdiyini görüblər. Bu təsir həm liberal, həm də mühafizəkar düşüncələr üçün keçərli idi.
Daha da önəmlisi, bu inandırıcı təsir gücünün müvəqqəti olmaması idi. Bir ay sonra aparılan izləmə ölçməsində iştirakçıların münasibətlərindəki dəyişiklik yenə də 3,2 bal olmuşdu. Bu, süni intellektin yaratdığı inandırıcı effektin, ən azı orta müddətli dövrdə davamlı ola biləcəyini göstərir.
Tədqiqat həmçinin dialoq formatının əhəmiyyətini də ortaya qoyub. Belə ki, süni intellektlə interaktiv söhbətlərdə iştirak edən iştirakçılar arasında münasibətdəki dəyişiklik, süni intellekt tərəfindən yaradılan statik mesajları oxuyan iştirakçılarla müqayisədə təxminən üç bal daha yüksək olub.
Narahatlığa əsas varmı?
Gəlinən bu nəticələr demokratik proseslər üçün ciddi risklər yaradır. Süni intellektlə idarə olunan inandırma kampaniyaları seçki proseslərində kütləvi manipulyasiya tədbirləri üçün istifadə edilə bilər. Xüsusilə də informasiya intensivliyi yüksək olan mexanizm seçicilərə hədəflənmiş dezinformasiyaları yaymaq üçün effektiv bir sfera təqdim edir.
Süni intellekt modeli milyonlarla seçici ilə eyni vaxtda fərdiləşdirilmiş söhbətlər apara bilir və bu faəliyyət istiqaməti isə ənənəvi inandırma metodları ilə mümkün olmayan bir təhlükə yaradır.
Şirkətlərin istehlakçıların siyasi münasibətlərini öz xeyrlərinə dəyişdirmə ehtimalları mümkündür. Xarici qüvvələr hədəf ölkələrin daxili siyasətinə müdaxilə etmək üçün süni intellektlə idarə olunan dezinformasiya kampaniyaları apara bilər.
Lakin tədqiqat bəzi ümidverici məqamları da ortaya qoydu.
Birincisi, süni intellekt tərəfindən yaradılan 8-9 ballıq təsir orta təsir hesab olunur. İnsanların qarşılıqlı təsirlərinin yarada biləcəyi inandırıcı güclə müqayisədə, süni intellektin təsiri hələ ki, limit həddinə çatmayıb.
İkincisi, həqiqət və inandırma arasındakı güzəşt real dünyada qoruyucu amil ola bilər. Ən inandırıcı süni intellekt sistemləri belə ən az doğru sayılacaqsa, o zaman onların istehsal etdiyi məzmun daha asan aşkarlana və nüfuzlarına xələl gətirə bilər.
Üçüncüsü, tədqiqat, nəzarətli laboratoriya mühitində aparılıb. Real dünyada insanlar süni intellektlə qarşılıqlı əlaqədə olduqlarının fərqindədirlər və bu məlumatlılıq onların inandırıcılıq təsirini azalda bilər. Həmçinin, insanlar öz sosial mühitlərindən də informasiya alırlar və bu çoxsaylı məlumat mənbələri tək bir süni intellekt söhbətinin təsirini məhdudlaşdıra bilər.
Nə etməliyik?
"Science" jurnalında dərc olunan bu araşdırma göstərir ki, süni intellektin siyasi inandırıcı gücü artıq nəzəri risk deyil, ölçülən reallıqdır. Texnologiya sürətlə inkişaf etdikcə, cəmiyyət olaraq bu inkişafın yarada biləcəyi risklərə hazır olmalıyıq.
Bu hazırlıq fərdi səviyyədə media savadlılığının və tənqidi düşüncə bacarıqlarının gücləndirilməsini tələb edir. Süni intellektlə qarşılıqlı əlaqələrdə, xüsusən də informasiya ilə bombardman edildikdə, şübhə ilə yanaşmaq, müstəqil mənbələrdən gələn iddiaları yoxlamaq və münasibətlərdəki sürətli dəyişikliklərin səbəblərini sorğulamaq olduqca vacibdir.
Korporativ səviyyədə süni intellekt sistemlərinin siyasi inandırma üçün istifadəsi ilə bağlı qaydalar hazırlanmalıdır. Texnologiya şirkətləri modellərindən bu məqsədlər üçün sui-istifadənin qarşısını almaq üçün təhlükəsizlik tədbirlərini artırmalıdır. Faktyoxlayıcı missiyalar və tədqiqatçılar süni intellektlə işləyən dezinformasiyanı aşkar etmək üçün yeni metodlar hazırlayıb tapmalıdır.
2026-cı il dünyada bir çox vacib seçkilər ili olacaq. Süni intellektin bu və sonrakı seçkilərdə oynayacağı rol həm texnoloji inkişafın sürətindən, həm də cəmiyyətin bu inkişafa nə dərəcədə hazır olmasından asılı olacaq.
Bu yeni reallıqda məlumatların yoxlanılması vərdişi təkcə yaxşı təcrübəyə deyil, həm də demokratik sistemlərin sağlamlığı üçün zərurətə çevrilməkdədir.