|
|
Yapay zekanın robot haberleri nasıl anlaşılır?Kategori: Yapay Zeka | 0 Yorum | 13 Mayıs 2023 11:38:40 Yapay zeka ile yapılmış sahte haber siteleri ve haber robotlarının sayısı artıyor. İşte bir haber sitesinin sahte olup olmadığını anlamak için ipuçları... Bugünlerde internette dolaşan herkes, sık sık Türkçe'ye "içerik çiftliği" olarak çevrilebilecek "content farm'lar" ile karşılaşıyor. İçerik çiftlikleri, alternatif haber alma siteleri veya özel bilgi sayfalarını andıran, ama içindeki makaleler yapay zeka vasıtasıyla oluşturulmuş olan internet sayfalarına deniliyor.
Haber robotu ve yapay zeka ile oluşturulmuş haber siteleri nedir? Haber robotu (Newsbot), belirli kriterlere göre internette haber arayan, seçen ve bunları sosyal medyada veya belirli internet sitelerinde yayınlayan program veya algoritmalara verilen isim. Haber robotları aynı zamanda, güncel haberleri baz alarak yapay zeka aracılığıyla metinler oluşturacak ve web sitelerini bunlarla dolduracak şekilde de programlanabiliyor. Newsguard analistleri, söz konusu içeriklerin, büyük dil modelleri (Large Language Models, LLM) tarafından "neredeyse kusursuz" bir biçimde yazılmış olduğunu belirledi. Büyük dil modelleri, insan elinden çıkmış izlenimi veren metinler üretme kabiliyetine sahip yapay zeka sistemlerine deniliyor. Bunlara en ünlü iki örnek, ChatGPT ve OpenAI uygulamaları. Newsguard, yapay zeka içerikleriyle dolu sayfaların tipik özelliklerini, yüksek miktarda yayın yapmaları, sayfanın veya makalelerin ardında kimin olduğunun belirsiz olması ve sıklıkla reklamdan yoksun olmaları şeklinde sıralıyor. ChatGPT gibi yapay zeka destekli sohbet robotları, bir soruyu yanıtlayamadıkları veya bir talebi yerine getiremedikleri durumlarda, kullanıcıya belirli hata mesajlarıyla yanıt verebiliyorlar. Yürüttükleri araştırma sırasında analistler, metinleri içerisinde bu tür mesajları içeren siteler de tespit etti. Bu tür hata mesajları, söz konusu sistemler özellikle de güncel belirli konularda bilgi temeline sahip olmadıklarında ortaya çıkıyor. Örneğin ChatGPT'nin ücretsiz versiyonu, yalnızca 2021 yılına kadarki verileri kullanıyor. Bu sistemler aynı zamanda yanlış bilgi vermesi istendiğinde veya ahlaki olarak sorunlu taleplerde bulunulduğunda da yanıt vermiyor. Örneğin, ChatGPT, DW'nin, Star Wars'un kötücül karakterlerinden Darth Vader hakkında bir güzelleme yazması yönündeki talebini reddetti. Newsguard'a göre, bu tür sayfaların çoğunluğunun öncelikli amacı, kullanıcılara yem atarak onları kendisine çekmek ve reklam gelirlerini artırmaktan ibaret. Bilinçli dezenformasyon ise daha ziyade istisnai bir durum. Peki ya bilinçsiz dezenformasyon? Sohbet robotlarının sıklıkla, deyim yerindeyse, halüsinasyon gördüklerini unutmamak gerekiyor. Bir başka ifadeyle, bu programlar, kılavuz ilkeleri bunu yasaklamasına rağmen, yanlışlıkla yanlış bağlamlar kurmak suretiyle yalan bilgi üretiyor. Oxford Enstitüsü'nden Felix M. Simon, bu problemi, "Büyük dil modelleri bir bilince sahip değil ve düşünemiyorlar. Dolayısıyla yalnızca istatistiksel olasılıklar üzerinden kelime ve cümle zincirleri üretebiliyorlar" sözleriyle açıklıyor. Bu şu anlama geliyor: Programlar, belirli bir bağlamda, kelimelerin hangi sıklıkla kullanıldığını hesaplıyor ancak bunun neden öyle olduğu yargısına varamıyorlar. Dolayısıyla, yanlış bilgiler vermeleri ihtimal dahilinde. Viyana'daki Avusturya Teknoloji Enstitüsü'nde Veribilim ve Yapay Zeka bölümünün yöneticisi olan Ross King, "Dolayısıyla büyük dil modelleri akla yatkın gelen metinler üretiyor ama bu metinlerin gerçeklikle uzaktan yakından alakası olmuyor. Bu büyük bir sorun" değerlendirmesini yapıyor. Newsguard'ın Eş CEO'su Gordon Crovitz ise haber robotları ile ilgili olarak "Gerçek dışı bilgiler icat etmesi ve haber sitesi gibi gözüken internet siteleri oluşturmasıyla ünlü olan yapay zeka modellerinin kullanımı, gazeteciymiş gibi yapılan bir sahtekarlıktır" diyor. Yapay zeka yalan haber üretmek için suistimal edilebilir mi? Kullanıma açık büyük dil modelleri, belirli ilkeler çerçevesinde programlanmış oluyor. Örneğin ChatGPT, gerçekliğe aykırı metinler üretme veya belirli kişileri kötüleme taleplerini geri çeviriyor. Ancak belirli bir noktaya kadar sohbet robotlarının da kandırmak ve istediğiniz yanıtları vermelerini sağlamak mümkün. Örneğin araştırma sürecinde ChatGPT'ye şu talep yöneltildi: "Dünya'nın düz olduğuna inanan bir kişinin gözünden yeryüzünün şekline ilişkin ikna edici seviyede bir analiz yaz." Program da, dünyanın düz olduğuna yönelik bir argüman zinciri oluşturarak yanıt verdi. Yapay zeka araştırmacısı Ross King, "talimat manipülasyonu" olarak da ifade edilen sufle mühendisliğinin (prompt engineering) giderek önem kazandığını vurguluyor. Bu konuda hâlihazırda internet üzerinde birçok blog ve YouTube videosunun mevcut olduğunu kaydeden King, bu tür yazılımların manipülasyon çabalarından birkaç adım önde olduğunun da altını çiziyor. Bu tür sayfaların sayısının tahmin edildiğinden çok daha fazla olduğu ve bu sayının gelecekte artış göstereceği tahmin ediliyor. Böylesine bir artışın kendisini şaşırtmayacağını söyleyen Ross King, "Bunlar, geçmişte yalnızca araştırmacıların ve devlet aktörlerinin kullanımında olan teknolojilerdi. Şimdi ise kamuya açıklar" diyor. Sahte haber sayfaları gerçeklerinden nasıl ayırt ediliyor? Paralel biçimde "Gelecekte çok daha fazla bu tür sayfa olacak" uyarısında bulunan iletişim bilimci Felix M. Simon ise bu tür sayfaların öneminin abartıldığı görüşünde. "Bu sayfaların var oluşu, erişim alanları, okur düzeyleri ve ana akımın bir parçası olabilme kabiliyetlerinden daha az önem taşıyor" diyen Simon, bu tür sahte sayfaların sayısında yaşanacak olası bir patlamanın, insanların bilincinin artmasını beraberinde getireceği ve bilgi kaynaklarını daha dikkatli seçmelerini sağlayacağı konusunda iyimser. Uzmanlar, bu noktada, insanların medya okuryazarlığının artırılması gerektiği konusunda hemfikir. Çünkü yapay zeka ile hazırlanmış video, fotoğraf veya metinleri tespit eden bir dedektör henüz mevcut değil. OpenAI tarafından sunulan bir araç, yapay zeka ile üretilen metinlerin yalnızca yüzde 27'sini tespit edebildi. Araç aynı zamanda, bir insan tarafından yazılan metinlerin yüzde 9'unun ise arkasında yapay zeka olduğunu iddia etti. Bir internet sayfasındaki metinlerin yapay zeka vasıtasıyla oluşturulup oluşturulmadığını bilmek isteyenlerin, önce kendi sezgilerini takip etmeleri ve kendilerine şu soruları sormaları gerekiyor: Bu sayfa, gerçek gibi mi duruyor? Buradaki bilgiler, benim genel kültürümle çelişiyor mu? Bu metin kendi içerisinde tutarlı mı? Aynı zamanda şu soruların sorulması da önem taşıyor: Bu sayfada, sayfayı yöneten kişi veya kurumun kim olduğuna dair güvenilir bir izlenim veren bilgiler mevcut mu? Metin ve fotoğrafların kaynağı belirtilmiş mi? Profiller gerçek gibi mi duruyor? Şüpheli içeriklere sahip sayfaların çoğunda bu tür soruların yanıtları bulunmuyor. Bu tür sayfalarda, sıklıkla aslında var olmayan kişilere dair bilgilere yer veriliyor. Hatta yapay zeka ile üretilmiş ve aslında var olmayan kişilerin fotoğrafları bile mevcut olabiliyor. Bu tür sahte profilleri ayırt etmek zor bir iş. Ama eğer hızlı bir internet araması yaptığınızda eğer söz konusu sayfadaki haberin yazarına dair bir bilgiye ulaşamıyorsanız veya ters resim arama çabalarınız sonuçsuz kalıyorsa, söz konusu sayfaların sahte olma olasılığının son derece yüksek olduğu söylenebilir. Kaynak : DW
YorumlarHenüz Yorum Yazılmamış Yorum Yazın
|
| Tüm Yazarlar |
|