DDO Bilgilendiriyor - Yapay Zekâ Her Zaman Doğru Bilgi Verir mi?
Yapay zekâ teknolojilerinin hızlı gelişimi, bilimsel araştırma ve yayıncılık alanında önemli fırsatlar ve kolaylıklar sunmaktadır. Metin üretimi, veri analizi ve kaynak önerisi gibi süreçlerde araştırmacılara destek sağlayan bu sistemler, aynı zamanda çeşitli riskleri de beraberinde getirmektedir. Özellikle üretken yapay zekâ araçlarının gerçek dışı bilgiler, uydurma kaynaklar ve yanıltıcı içerikler üretme potansiyeli, bilimsel bilginin güvenilirliğini tehdit edebilmektedir.
Büyük dil modelleri (LLM’ler), çok büyük veri kümeleri üzerinde eğitilerek dildeki örüntüleri öğrenir. Bu modeller, öğrendikleri kalıplara dayanarak yeni içerikler üretir. Ancak bu üretim süreci her zaman güvenilir olmayabilir. Özellikle üretken yapay zekâ (GenAI) araçlarında "halüsinasyon" adı verilen bir sorun sıkça görülmektedir.
Yapay Zekâ Halüsinasyonu Nedir?
Yapay zekânın gerçekte olmayan yanlış veya uydurma içerik (bilgi, kaynak, görsel ya da ses gibi) üretmesidir. Ürettiği içerikler gerçek gibi sunulduğu için fark edilmesi zordur.
ChatGPT, Gemini gibi metin üretici yapay zekâsohbet araçları, istenen akademik referanslar hakkında uydurulmuş başlıklar, makaleler, içerikler veya yazarlar oluşturabilir. Benzer şekilde, görsel üreten yapay zekâ araçları, örneğin bir insan eli çizerken, modelin eğitiminde kullanılan verilerin anatomik değil de görsel örüntülere dayanması nedeniyle görüntüye fazla veya eksik parmaklı el ekleyebilir. Ses tabanlı yapay zekâlarda ise yanlış aksan kullanımı veya ses içeriklerinde bozulmalar meydana gelebilmektedir.
Yapay zekâ, bilimsel araştırmalarda hız ve verimlilik sağlama gibi önemli avantajlar sunar. Ancak, bu teknolojinin kötüye kullanılması veya yanlış sonuçlar üretmesi durumunda, ciddi riskler ortaya çıkabilir. Çünkü yapay zekâ araçlarının bazı temel sınırlamaları vardır: Bilinç sahibi olmamaları, özgün fikirler üretememeleri ve tamamen eğitim verilerine bağımlı olmaları nedeniyle, bu veriler eski, hatalı ya da önyargılı olabilir. Ayrıca, kaynak göstermeleri istendiğinde bile uydurma referanslar sunabilirler. Üretken yapay zekâ araçları, kötü niyetli kişiler tarafından tamamen uydurma ve yanıltıcı içerikler oluşturmak için kullanılabilir. Tüm bu özellikler, bilimsel bütünlüğün zarar görmesine, yanlış bilgilerin literatüre girmesine ve etik dışı içerik üretiminin kolaylaşmasına yol açarak ciddi tehlikeler oluşturur. Bu nedenle, yapay zekâ kullanılırken avantajlarının farkında olmak kadar, ortaya çıkabilecek riskleri de göz önünde bulundurarak dikkatli ve sorumlu davranmak büyük önem taşır.
Yapay zekânın risklerine karşı dikkat edilmesi gerekenler:
-
Yapay zekâ çıktıları, doğrulanmadan kullanılmamalıdır.
-
Kaynaklar mutlaka kontrol edilmelidir.
-
Eğer yapay zekâkullanıldıysa yapay zekânın kullanıldığı açıkça belirtilerek şeffaflık ve etik kurallara uyulmalıdır.
Yapay zekâ, bilimsel üretkenliği artıran güçlü bir araç olabilir. Ancak bilinçsiz ya da kötü niyetli kullanımı; yanlış bilgi üretimi, sahte yayınlar ve güvenin sarsılması gibi ciddi sonuçlara yol açabilir. Özellikle bilimsel araştırma ve yayın yapanlar, yapay zekânın avantajlarından faydalanırken risklerine karşı da dikkatli olmalıdır.
Kaynaklar
Slat, B. (2019, April 10). Introduction to Generative AI. University of Illinois. https://guides.library.illinois.edu/generativeAI/hallucinations
Kocak Z. Publication Ethics in the Era of Artificial Intelligence. J Korean Med Sci. 2024 Jul;39(33):e249. https://doi.org/10.3346/jkms.2024.39.e249
Elali, F. R., & Rachid, L. N. (2023). AI-generated research paper fabrication and plagiarism in the scientific community. Patterns, 4(3), 100706. doi:10.1016/j.patter.2023.10070