Ekspert: Süni intellektlə saxta foto, video və audio materialların hazırlanmasının asanlaşdığı bir dövrdə bu sahədə hüquqi məsuliyyətin müəyyənləşdirilməsi rəqəmsal mühitdə dezinformasiyanın qarşısının alınması baxımından mühüm əhəmiyyət daşıyır
Azərbaycanda süni intellekt texnologiyalarından sui-istifadənin qarşısının alınmasına yönəlmiş hüquqi mexanizmlərin formalaşdırılması istiqamətində addımlar atılır. Belə ki, süni intellektlə qanunsuz materialların hazırlanıb yayılmasına görə cərimə və cəzaların müəyyənləşdirilməsi məqsədilə Cinayət və Cinayət-Prosessual məcəllələrinə dəyişikliklər təklif olunub. Qanun layihəsi Milli Məclisin Hüquq siyasəti və dövlət quruculuğu və İnsan hüquqları komitələrinin birgə iclasında müzakirə edilib. Layihəyə əsasən, şəxsin razılığı olmadan onun görüntüsü və ya səsindən istifadə etməklə süni intellekt və xüsusi proqram təminatları vasitəsilə reallığı əks etdirməyən foto, video və ya audio materialların hazırlanması və ya bu materialların mediada və internet informasiya ehtiyatlarında yayılması 3 min manatdan 7 min manatadək cərimə, 360 saatdan 480 saatadək ictimai işlər, yaxud 3 ilədək azadlığın məhdudlaşdırılması və ya azadlıqdan məhrumetmə ilə cəzalandırıla bilər.

Sənədə görə, bu əməllər bir qrup şəxs tərəfindən törədildikdə, iki və ya daha çox şəxsə qarşı yönəldildikdə, şəxsin şərəf və ləyaqətini ləkələmək və ya onu nüfuzdan salmaq məqsədi daşıdıqda, eləcə də zərərçəkmiş şəxsin xidməti vəzifəsini və ya ictimai borcunu yerinə yetirməsi ilə əlaqədar onun özü və ya yaxın qohumlarına qarşı törədildikdə daha sərt – 3 ildən 5 ilədək azadlıqdan məhrumetmə cəzası tətbiq ediləcək. Bundan əlavə, şəxsin razılığı olmadan süni intellekt vasitəsilə pornoqrafik və ya seksual məzmunlu foto, video və ya audio materialların hazırlanması və yayılması 3 ildən 7 ilədək azadlıqdan məhrumetmə ilə cəzalandırılması nəzərdə tutulur.
Təklif edilən dəyişikliklərdə daha bir mühüm tələb də əksini tapır. Belə ki, süni intellekt texnologiyaları vasitəsilə hazırlanmış foto, video və ya audio materiallar kütləvi nümayiş etdirildiyi halda onların süni intellektlə hazırlandığını göstərən aydın və asanlıqla görünən nişanlanma ilə təqdim olunması vacib olacaq. Bu yanaşma həm rəqəmsal məzmunun şəffaflığını artırmaq, həm də ictimaiyyəti manipulyativ və saxta materiallardan qorumaq məqsədi daşıyır.
Dipfeyk texnologiyaları yeni informasiya riskləri yaradır

İnformasiya texnologiyaları üzrə mühəndis-tədqiqatçı, Azərbaycan Kibertəhlükəsizlik Təşkilatları Assosiasiyasının eksperti Bəhruz Əliyev mövzu ilə bağlı “İki sahil”ə açıqlamasında süni intellekt texnologiyalarının inkişafı fonunda dipfeyk adlandırılan saxta materialların hazırlanmasının əvvəlki illərlə müqayisədə xeyli asanlaşdığını bildirdi: “Bu texnologiya ilkin mərhələdə daha çox əyləncə və kino sənayesində istifadə olunsa da, son illər onun sui-istifadə halları da artmağa başlayıb. Xüsusilə siyasi manipulyasiya, dezinformasiya kampaniyaları və şəxsi nüfuzun zədələnməsi kimi hallarda deepfake materiallar ciddi risk yaradır. Texniki baxımdan bu cür materialların hazırlanması artıq xüsusi laboratoriya və ya böyük maliyyə tələb etmir. Müasir generativ süni intellekt alətləri vasitəsilə adi kompüter və ya hətta mobil cihazlarla belə real görünən saxta məzmun yaratmaq mümkündür. Bu isə informasiya təhlükəsizliyi və ictimai etimad baxımından yeni çağırışlar formalaşdırır.
Dipfeyk materialların təhlükəsi xüsusilə sosial şəbəkələrdə sürətlə yayılması ilə daha da artır. İnsanlar çox zaman gördükləri video və ya səs yazısının həqiqiliyini yoxlamadan paylaşa bilirlər. Nəticədə saxta məlumatlar qısa müddətdə geniş auditoriyaya çata və ictimai rəyə təsir göstərə bilir. Buna görə bir çox ölkələrdə bu sahədə hüquqi mexanizmlərin gücləndirilməsi müzakirə olunur”.
Saxta videoların ən böyük təhlükəsi onların sürətlə yayılmasıdır
Ekspert qeyd etdi ki, texniki baxımdan dipfeyk materialların aşkarlanması üçün müxtəlif metodlar mövcuddur: “Məsələn, süni intellekt əsaslı analiz sistemləri videoda üz mimikası, işıq kölgə uyğunsuzluğu və piksel səviyyəsində anomaliyaları müəyyən edə bilir. Bəzi alqoritmlər insan gözünün fərq etmədiyi mikro hərəkətləri və sintetik generasiya izlərini aşkar etməyə imkan verir. Bundan əlavə, rəqəmsal watermark və ya kriptoqrafik imza texnologiyaları da məzmunun orijinallığını yoxlamağa kömək edir.
Bununla yanaşı, texnologiya inkişaf etdikcə dipfeyk alətlərinin keyfiyyəti də artır və aşkarlama prosesini çətinləşdirir. Bu səbəbdən problem yalnız texniki vasitələrlə deyil, həm də hüquqi və maarifləndirici tədbirlərlə birlikdə həll olunmalıdır. Beynəlxalq qurumlar, texnologiya şirkətləri və cəmiyyət arasında koordinasiya bu sahədə risklərin azaldılmasında mühüm rol oynayır. Belə yanaşma həm informasiya təhlükəsizliyinin qorunmasına, həm də rəqəmsal mühitdə ictimai etimadın saxlanmasına xidmət edə bilər”.
Bəhruz Əliyev diqqətə çatdırdı ki, süni intellekt vasitəsilə saxta foto, video və audio materialların hazırlanmasının getdikcə asanlaşdığı bir dövrdə bu sahədə hüquqi məsuliyyətin müəyyənləşdirilməsi həm vətəndaşların şəxsi hüquqlarının qorunması, həm də rəqəmsal mühitdə dezinformasiyanın qarşısının alınması baxımından mühüm addımdır.
Nigar Orucova, "İki sahil"