Rize Haber
Rize
Parçalı bulutlu
8°
Adana
Adıyaman
Afyonkarahisar
Ağrı
Amasya
Ankara
Antalya
Artvin
Aydın
Balıkesir
Bilecik
Bingöl
Bitlis
Bolu
Burdur
Bursa
Çanakkale
Çankırı
Çorum
Denizli
Diyarbakır
Edirne
Elazığ
Erzincan
Erzurum
Eskişehir
Gaziantep
Giresun
Gümüşhane
Hakkari
Hatay
Isparta
Mersin
İstanbul
İzmir
Kars
Kastamonu
Kayseri
Kırklareli
Kırşehir
Kocaeli
Konya
Kütahya
Malatya
Manisa
Kahramanmaraş
Mardin
Muğla
Muş
Nevşehir
Niğde
Ordu
Rize
Sakarya
Samsun
Siirt
Sinop
Sivas
Tekirdağ
Tokat
Trabzon
Tunceli
Şanlıurfa
Uşak
Van
Yozgat
Zonguldak
Aksaray
Bayburt
Karaman
Kırıkkale
Batman
Şırnak
Bartın
Ardahan
Iğdır
Yalova
Karabük
Kilis
Osmaniye
Düzce
Rize
00:00:00
Öğle vaktine kalan
Ara

Yapay Zeka Ürünleri: Sahte Görsel ve Sesler Yeni Tehditler Arasında!

Yapay zeka destekli görseller, ses taklitleri ve deepfake videolar, günümüzde savaş bölgelerinden siyasi kampanya alanlarına kadar birçok farklı ortamda bilgi manipülasyonu ve dolandırıcılık için kullanılıyor. Bu teknolojilerin etkisi, sahte içeriklerin hızla yayılmasıyla birlikte artmakta ve bu durum global çapta önemli bir tehdit oluşturuyor.

KAYNAK: Anadolu Ajansı ( AA)

Yapay zeka tehdit tespit platformu Sensity AI şirketinin araştırmalarına göre, Rusya-Ukrayna Savaşı'nda Ukraynalı siyasetçiler ve askerler, deepfake videolarla "teslim olmaya çağıran" ya da "savaş suçu işlediğini itiraf eden" kişiler gibi gösteriliyor.

Tayvan'da seçim dönemlerinde, politikacıların sahte konuşmaları, uydurma skandalları ve gafa benzeyen sahneleri gibi Çin kaynaklı yapay zeka içerikleri sosyal medyada yayılarak karşıt görüşlü adaylar hedef alınıyor.

Japonya'da ise yapay zekayla üretilmiş sahte doğal afet görüntüleri, nükleer kaza veya sel felaketi gibi kurgular halkta panik yaratmak için kullanılıyor.

Bu tür olaylar, yapay zeka araçlarının bilinçsizce ve kontrolsüzce "yeni nesil silahlar" olarak kullanılması durumunda doğurabileceği tehlikeleri bir kez daha gündeme getiriyor.

"Yapay zeka ürünlerini tanımak imkansız hale geldi"

Sensity AI'nin kurucu ortağı Francesco Cavalli, yapay zekayla oluşturulan görseller, videolar ve seslerin etki ve tehlikelerine ilişkin AA muhabirine değerlendirmelerde bulundu.

Cavalli, yapay zeka araçları geliştikçe neyin gerçek neyin olmadığını anlamanın daha zorlaştığını söyledi.

Yapay zekayla üretilen içerikleri anlamak için yüzde tutarsız ışıklandırma, aşırı pürüzsüz cilt dokusu, videolarda yapay göz kırpma ya da ağız hareketlerine bakılması tavsiye ediliyor.

Cavalli, "Yapay zeka içerikleri, özellikle düşük çözünürlüklü veya sıkıştırılmış formatlarda insan gözüyle tespitten kaçabiliyor. Yapay zekayla oluşturulmuş sesler insan için artık tanınması imkansız hale geldi." dedi.

Yapay zekayla manipülasyon

Halihazırda yapay zekayla taklit edilen seslerin bu alandaki en yüksek riski oluşturduğu belirtiliyor.

Yapay zeka kullanarak Dışişleri Bakanı Marco Rubio'yu taklit eden bir dolandırıcı, ABD'li siyasiler tarafından sıkça kullanılan "Signal" isimli mesajlaşma uygulamasında Rubio adına sahte bir hesap oluşturarak üç farklı ülkenin dışişleri bakanları, bir Kongre üyesi ve bir vali ile temas kurdu.

Seslerin kullanımın kolay ve tespitinin de gecikmeli olduğunu dile getiren Cavalli, taklit seslerin telefonda konuşulan kişinin güvenilen biri olduğuna inandırmak için kullanıldığını ifade etti.

Midjourney ve Runway gibi araçlar geliştikçe gerçekle yapayı tutarlı şekilde ayırt etmekte zorlaşıyor.

Cavalli konuya ilişkin, "Üretici araçlar geliştikçe, eğitimli gözler bile kolayca kandırılabiliyor." diye konuştu.

"Seçim müdahalesinde kullanılan yapay zeka üretimi medya, dolandırıcılık platformlarını tanıtan sahte basın toplantıları yapan politikacılar ve kamuoyunu manipüle etmek için paylaşılan yapay zeka üretimi savaş görüntülerini belgeledik." diyen Cavalli, bu görsellerin genellikle sahte haber siteleri, sosyal medyadaki reklamlarla yayıldığını anlattı.

Cavalli, Çin, Japonya, Tayvan'da yapay zeka kullanımına ilişkin şirketinin incelediği vakalara atıfta bulunarak, "Tüm bu örneklerde, yapay zeka destekli propaganda sadece deneysel bir tehdit değil, algıyı manipüle etmek, toplumları istikrarsızlaştırmak ve yumuşak güç uygulamak için çeşitli çatışmalarda aktif olarak kullanılan küresel bir silahtır." değerlendirmesinde bulundu.

Proaktif denetim ve işbirliği şart

Teknoloji şirketleri ve platformlara yapay zeka tabanlı görsel dezenformasyonla mücadele konusunda harekete geçmeleri yönünde çağrılar yapılıyor.

Platformların ise bu konuya odaklandığı ancak çoğunun "yapay medyayı geniş ölçekte tespit edebilecek sağlam adli inceleme sistemlerine sahip olmadığı" ifade ediliyor.

Cavalli, "Bazıları dolandırıcılık kampanyalarından bilinçli şekilde kar ediyor. Ancak dış baskı olunca müdahale ediyor. Tespit teknolojisi sağlayıcılar, platformlar ve düzenleyiciler arasında daha güçlü işbirliği şart." dedi.

Yapay zekayla üretilen içeriklerin "etiketlenmesinin" doğru yol olmadığını düşündüğünü aktaran Cavalli, şunları söyledi:

"Yapay zekayla oluşturulmuş içerik kendiliğinden zararlı değil, kullanım şekli ve yeri önemli. Örneğin, sosyal medya platformlarının, deepfake dolandırıcılık reklamları için ağlarını denetimsiz kullandırmasına ağır yaptırımlar uygulanmalı. Kullanıcı şikayetlerine dayanmak yerine, proaktif önlemler almaları zorunlu olmalı."

"Görmek artık inanmak demek olmayacak"

Sensity'nin geliştirdiği sistemler yüz manipülasyonun belirlenmesi, tamamen yapay zekayla üretilmiş görsellerin tespiti, taklit ses analizi ve adli incelemeyi kapsayan dört aşamalı bir analiz sürecinden geçiyor.

Bu analizlerin raporları ise resmi soruşturmalarda ve mahkemelerde kullanılabiliyor.

Cavalli, görsel medyaya olan güvenin gittikçe azaldığına işaret ederek bu konuda farkındalığın artması gerektiğini vurguladı.

İnsanların yapay zekayla üretilen görsel ve seslerin risklerine karşı eğitilmesi, şirketlerin, gazetecilerin ve araştırmacıların adli araçlarla donatılması gerektiğinin altını çizen Cavalli, "Görmek artık inanmak demek olmayacak." ifadesini kullandı.