ԱՄՆ-ում նշել են, թե ինչը կարող է դառնալ միջուկային պատերազմի հնարավոր պատճառ
Զինվորականների կողմից արհեստական ինտելեկտի համակարգերի օգտագործման լուրջ վտանգ է պարունակում դրա մասնակցությունը միջուկային հարված հասցնելու մասին որոշումների կայացմանը։ Այս մասին գրում է Breaking Defense պարբերականը՝ հղում կատարելով ԱՄՆ պաշտպանության նախկին նախարար Ռոբերտ Ուորքին, տեղեկացնում է ՌԻԱ «Նովոստի»-ն։
Նրա խոսքով՝ արհեստական ինտելեկտի համակարգերը չպետք է մասնակցեն միջուկային սպառազինության վերահսկմանը, քանի որ դրանք արձակվում են ըստ որոշակի պարամետրերի եւ ցուցանիշների։ Որոշ դեպքերում արհեստական ինտելեկտը կարող է ոչ վտանգավոր գործոնները գնահատել որպես սպառնալիք ներկայացնող, եւ դա «տագնապալի հեռանկար» է։
Մասնավորապես, բերվում է ռուսական «Պերիմետր» համակարգի օրինակը, որը կարող է սեյսմիկ ակտիվությունն ընդունել որպես միջուկային պայթյուն, ինչից հետո հարցում կուղարկի զորքերի շտաբ, եւ եթե հանկարծ պատասխան չստանա, կարող է միջմայրցամաքային բալիստիկ հրթիռ արձակելու հրաման տալ։
Բացի այդ, Ուորքը ավելացրել է, որ արհեստական ինտելեկտի ռազմական կիրառումը կարող է հանգեցնել տխուր հետեւանքների նաեւ միջուկային զենքի կառավարմանն ուղղակի չմասնակցելով։ Մասնավորապես, նման ոլորտ կարող է լինել դրա օգտագործումը հետախուզական տվյալները վերլուծելիս, ինչպես նաեւ վաղ կանխման համակարգերում։
«Պատկերացրեք, արհեստական ինտելեկտի համակարգը չինական զորքերի հրամանատարական կենտրոնում, վերլուծելով օպերատիվ տվյալները, հայտարարում է, որ ԱՄՆ-ը պատրաստվում է հարված հասցնել Չինաստանին եւ խորհուրդ է տալիս հասցնել կանխիչ հարված»,- ասել է Ուորքը։
Այնուամենայնիվ, նա նշում է, որ արհեստական ինտելեկտն անպայման կարող է օգուտ բերել զինվորականներին, սակայն դրա կիրառումը պետք է սահմանափակ լինի եւ չտարածվի միջուկային սպառազինության վրա, քանի որ դա կարող է հանգեցնել «աղետալի սցենարի»։
Լուրեր Հայաստանից - NEWS.am