MENU
  • ÇEVİRİ
  • YORUM
  • YARGI KRİZİ
  • PİYASALAR
  • GÜNDEM
  • DÜNYA
  • EDİTÖRDEN
  • SPOR
  • KÖŞE YAZILARI
  • DOSYA>Seçimin Ardından
  • GENEL
  • KİTAP
  • DOSYA>Avrupa'nın Seçimi
  • DOSYA>Emekliler
  • YAZARLAR
  • FOTO GALERİ
  • WEB TV
  • ASTROLOJİ
  • RÜYA TABİRLERİ
  • HABER ARŞİVİ
  • YOL TRAFIK DURUMU
  • RÖPORTAJLAR
  • Künye
  • Gizlilik Politikası
  • E-Bülten
Yeni Arayış
Yeni Arayış
Yeni Arayış
  • ANA SAYFA
  • KÖŞE & YORUM YAZILARI
  • GÜNDEM
  • KATEGORİLER
    • SİYASET
    • EKONOMİ
    • DIŞ POLİTİKA
    • KÜLTÜR SANAT
    • HUKUK
    • TEKNOLOJİ
    • PSİKOLOJİ
    • FELSEFE
    • KENT
    • EDEBİYAT
    • SAĞLIK
    • ASTROLOJİ
    • GEZİ
    • SÖYLEŞİ
    • EKOLOJİ
    • MEDYA
    • EĞİTİM
  • KÜNYE & İLETİŞİM
Kapat

Yapay zekâ pek çok şeyi uyduruyor ve bu büyük bir problem

Ana Sayfaçevi̇ri̇Yapay zekâ pek çok şeyi uyduruyor ve bu büyük bir problem
Yapay zekâ pek çok şeyi uyduruyor ve bu büyük bir problem

Yapay zekâ pek çok şeyi uyduruyor ve bu büyük bir problem

31 Ocak, 2024, Çarşamba 21:36
  • yazdıryorum yazfont küçültfont büyüt
Yeni Arayış
Yeni Arayış
29 Ağustos 2023 tarihinde CNN'in web sayfasında yayımlanan aşağıdaki makale Catherine Thorbecke tarafından yazılmıştır.Yapay zekânın dünyayı ele geçirmeden önce bir problemi çözmesi lazım: Botlar halüsinasyon görüyor.ChatGPT gibi yapay zekâ destekli araçlar, her türlü sorguya yetkin ve insan gibi tınlayan cevaplar üretmek suretiyle bizi büyülediler. Fakat daha da fazla insan, ödev yapmak, işyeri araştırması yapmak veya sağlık sorguları sormak gibi şeylerle bu heyecan verici teknolojiye başvurdukça onun en büyük tuzaklarından biri görünür olmaya başladı: YZ modelleri sıklıkla bir şeyleri uyduruyor.Meta YZ direktörünün bir twitte belirttiği gibi, araştırmacılar, YZ modellerinin bu tür doğru olmayan bilgileri bize fırlatması eğilimine “halüsinasyonlar” veya hatta “masallama” diyorlar. Bu arada bazı sosyal medya kullanıcıları sohbet botlarını “patolojik yalancı” olarak suçlamaya başladı bile.Fakat tüm bu tanımlamalar, Beyaz Saray YZ Haklar Beyannamesi Taslağı’nın yardımcı yazarlarından Brown Üniversitesi hocalarından, Profesör Suresh Venkatasubramanian’a göre, bizim makinelerin eylemlerini antropomorfize etme (insan biçimci yorumlama, çev.) eğilimimizden kaynaklanıyor.Gerçekte olan ise, Venkatasubramanian’ın dediği gibi, -ChatGPT gibi YZ araçlarının temelindeki teknolojinin oluşturduğu- büyük dil modellerinin (LLM Large-Language Models, çev.) kullanıcı sorgularına “inandırıcı ve makul cevaplar üretmek” için eğitilmiş olmaları. “Böylece, bu anlamda, inandırıcı ve makul herhangi bir cevap, doğru, olgusal veya isterse uydurulmuş olsun ya da olmasın, makul bir cevap ve onun da ürettiği bu” diyor Venkatasubramanian. “Burada hiçbir doğruluk bilgisi yok.”YZ araştırmacısının dediğine göre, yanlış veya kötü niyet anlamı çağrıştıran halüsinasyon veya yalan söyleme iddiasından daha iyi bir analoji, bu bilgisayarların çıktısının dört yaşındaki oğlunun anlattığı hikâyelerle mukayese edilmesi. “Ve sonra ne oldu?” diye sorarsınız ve o daha da fazla hikâye üretmeye devam eder, o kadar.” diyor Venkatasubramanian. “Ve böyle devam eder de eder.”YZ sohbet botlarının arkasındaki şirketler, bu halüsinasyonların en kötüsünün gerçekleşmesini önlemek amacıyla bir takım korumalar geliştirdiler. Fakat üretici YZ’nin etrafındaki küresel hevese karşılık, bu alandaki pek çok kişi sohbet botlarının halüsinasyonlarının çözülüp çözülemeyen bir problem olup olmadığı konusunda kafalarını kaşımaya devam ediyorlar.

YZ halüsinasyonu nedir?

Washington Üniversitesi profesörlerinden ve üniversitenin Kamusal Bilgi Merkezi’nin yardımcı kurucularından Jevin West’e göre, basitçe söylemek gerekirse bir halüsinasyon, bir YZ modelinin “bir şeyleri yani gerçeklikle ilgisi olmayan bir şeyleri uydurması” anlamına geliyor.Fakat West ekliyor “bunu saf bir güvenle yapıyor”. “Ve tıpkı sizin ‘ABD’nin başkenti neresidir?’ şeklinde basit bir soru sormanız gibi aynı güvenle yapıyor” bunu.Bu da West’in söylediğine göre kullanıcıların, cevabını zaten bilmedikleri bir sohbet botuna soru sorduklarında neyin gerçek olup olmadığını ayırt etmelerinde zorlanmaları anlamına geliyor.Bazı çok bilinen YZ halüsinasyonları çoktan manşetlere düştü. Google, ChatGPT’nin rakibi olarak oldukça yüksek beklenti gören Bard’ın demosunun lansmanını ilk defa yaptığında, YZ,  James Webb Uzay Teleskobu tarafından yapılan yeni keşiflere dair bir soruya göz göre göre yanlış bir cevap verdi (O zaman, bir Google sözcüsü CNN’e olayın “katı test sürecinin önemini vurguladığını” söyledi ve şirketin “Bard’ın cevaplarının gerçek dünya enformasyonu içerisinde kalitede, güvenlikte ve gerçekçilikte yüksek bir çıtaya karşılamasına” çalıştıklarını ekledi).Kıdemli bir New Yorklu avukat da ChatGPT’yi hukuk araştırması için kullandığı sırada sohbet botunun doğrudan uydurduğu altı “düzmece” davayı mahkemeye teslim etmesiyle zor bir durumda kaldı. Haber kaynağı CNET de YZ aracı tarafından üretilen bir makalenin, bileşik faizin ne işe yaradığına dair soruya doğru olmayan kişisel finansal bir cevap vermesiyle düzeltme yayımlamak zorunda kaldı.Öte yandan, YZ halüsinasyonlarının önünü alma çabası, YZ araçlarının insanlara daha yaratıcı teşebbüslerde, örneğin kullanıcıların ChatGPT’nin şiir veya şarkı sözü yazma gibi isteklerinde yardım etme yetisini de sınırlıyor.Ancak, West’in CNN’e belirttiği gibi, insanlar sağlıkları, oy verme davranışları ve potansiyel olarak daha hassas meselelerini etkileyebilecek cevapları aramaya başladıklarında halüsinasyonlardan kaynaklanan riskler var.Venkatasubramanian, "şu an için doğrudan kendi başınıza doğrulayamadığınız gerçek veya güvenilir bilgiye ihtiyaç duyulan herhangi bir iş için bu araçlara güvenmenin problematik olduğunu" da ekledi. Yine dediğine göre, örneğin iş adaylarının niteliklerini özetleyen ve iş mülakatında bir sonraki mülakatta kiminle devam edeceğine karar veren YZ araçlarını kullanan şirketlerde olduğu gibi, bu teknoloji yayıldıkça başka potansiyel riskler barındırıyor.Venkatasubramanian, son olarak bu araçların “en azından şu an için insanların maddi olarak etkileneceği alanlarda kullanılmaması gerektiğini” düşündüğünü söyledi.

Halüsinasyonlar önlenebilir mi?

YZ halüsinasyonlarını önlemek veya düzeltmek “aktif araştırma meselesi.” diyor Venkatasubramanian. Ancak bu şu anda çok karışık bir konu.Büyük dil modelleri devasa veri setleri üzerinde eğitiliyorlar ve bir YZ modelinin kullanıcı sorgusuna bir cevabı nasıl ürettiğine dair birden çok safha var; bu süreçlerden bazıları otomatik olurken, bazıları insan müdahalesinden etkileniyor.“Bu modeller çok kompleks ve bu yüzden de çok girift” diyor Venkatasubramanian, fakat bu yüzden de “çok kırılganlar.” Bu da girdilerdeki en ufak değişikliklerin bile “çıktılarda oldukça dramatik farklar” yaratması anlamına geliyor.“Bu işin doğası bu, eğer bir şey bu kadar hassas ve komplike ise, bu da getirilerinden birisi.” diyor Venkatasubramanian. “Bu da işlerin nasıl olup da yanlış gittiğini tanımlamak çok zor çünkü pek çok küçük şey yanlış gidebilir.”Washington Üniversitesi’nden West de bu duyguları yansıtarak diyor ki, “problem bu sohbet botlarından gelen halüsinasyonları tersine mühendislik ile çözemememiz.”“Bunun sebebi, bu şeylerin içsel karakteristiklerinin her zaman için orada bulunmaları olabilir” diyor West.Google’ın Bard’ı ve OpenAI’ın ChatGPT’si ilk baştan beri kullanıcılara karşı şeffaf olmaya çalıştıkları için doğru olmayan cevaplar üretebiliyorlar. Ve şirketler de çözümler üzerine çalıştıklarını belirtiyorlar.Yılın ilk günlerinde, Google CEO’su Sundar Pichai, CBS’in “60 Dakika” programında yaptığı bir röportajda “alandaki kimsenin halüsinasyon problemini çözemediğini” ve “tüm modellerin bu sorunu olduğunu” söyledi. Pichai sorunun çözülüp çözülemeyeceği konusunda ise “bu yoğun bir tartışma konusu, bence gelişme kaydedeceğiz” dedi.Ve, ChatGPT’yi yapan OpenAI’nın CEO’su Sam Altman, haziranda Hindistan Delhi’de Indraprastha Enformasyon Teknolojisi Enstitüsü’nde yaptığı bir konuşmada bir ya da bir buçuk yıl içinde “halüsinasyon probleminin çok daha iyi bir noktaya geleceğine” dair teknolojik bir tahminde bulundu.  “Yaratıcılık ve kusursuz doğruluk arasında bir denge var” diye ekledi Altman. “Siz herhangi bir şey talep ettiğinizde modelin öğrenmesi gerekiyor.”Buna karşılık, Altman, ChatGPT’nin kullanılması hakkındaki takip eden soruya ise iğneleyici bir cevap veriyor: “Muhtemelen dünyadaki herkes arasında en az ChatGPT’den gelen cevaplara güveniyorum.”Kaynak: https://edition.cnn.com/2023/08/29/tech/ai-chatbot-hallucinations/index.html Çev. T. Argun Sezer
Yazarlar sayfasını izyeret ettiniz mi?

Yorum Yazın

Yeni Arayış
    Yeni Arayış

    Bizi Takip Edin
    Facebook
    X (Twitter)
    Instagram
    Linkedin
    Mastodon
    Bluesky
    Köşe Yazarları
    Murat Aksoy
    Murat Aksoy Özel’in bir şansı daha var 
    Hakan Tahmaz
    Hakan Tahmaz Yeni ‘çözüm süreci’ ve Cumartesi Anneleri 
    Erol Katırcıoğlu
    Erol Katırcıoğlu Bölünmüş toplumlar ve biz olmak
    Çağhan Uyar
    Çağhan Uyar Değerli Kemal Bey
    Korhan Gümüş
    Korhan Gümüş Şehri yaşanabilir kılmak için bisiklet
    Eser Karakaş
    Eser Karakaş 30 Haziran davası üzerinden ülkenin makus talihi
    Yüksel Işık
    Yüksel Işık Kaosun karşısında, umudun yanında 
    Murat Kartalkaya
    Murat Kartalkaya Azgın küresel iştah!
    Serap Mumcu
    Serap Mumcu Venedik’in son maskesi: Bezos’un Düğünü, kentin geleceği ve gerçek sahipleri
    Hasan Bülent Kahraman
    Hasan Bülent Kahraman 27 Mayıs 1960 Darbesine Yeni Bakışlar (3)
    Reha Çamuroğlu
    Reha Çamuroğlu Yine mi CHP?
    Turgay Bozoğlu
    Turgay Bozoğlu Zenginliğin illüzyonu 
    Fahri Bakırcı
    Fahri Bakırcı CHP’de parti disiplini üzerine
    Başak Yağmur Eray
    Başak Yağmur Eray Butlan, hırs ve meşruiyet: Bir siyasi müdahale anatomisi
    Bahattin Yücel
    Bahattin Yücel Bölgedeki gelişmeler ve CHP üzerindeki baskı
    Buse Ayazma
    Buse Ayazma Ama kafası nasıl güzel (!)
    Burak Can Çelik
    Burak Can Çelik Hindistan’ın Orta Doğu’daki diplomatik yükselişi
    Tunay Şendal
    Tunay Şendal Muhalefetin ontolojik ve pratik rolü
    Çağatay Arslan
    Çağatay Arslan Yolda olmak: Türkiye’den İsveç’e bisikletin sosyolojisi
    SON GELİŞMELER
    İhraç edilen teğmenlerin avukatlardan açıklama
    İhraç edilen teğmenlerin avukatlardan açıklama
    Saadet Partisi Genel Başkanı Mahmut Arıkan, Yalova'da tersane işçileriyle bir araya geldi
    Saadet Partisi Genel Başkanı Mahmut Arıkan, Yalova'da tersane işçileriyle bir araya geldi
    MSB kararını açıkladı: Teğmenler TSK'dan ihraç edildi
    MSB kararını açıkladı: Teğmenler TSK'dan ihraç edildi
    DEM Parti İmralı Heyeti’nden Pervin Buldan, DTK Eş Başkanı Leyla Güven’i cezaevinde ziyaret etti
    DEM Parti İmralı Heyeti’nden Pervin Buldan, DTK Eş Başkanı Leyla Güven’i cezaevinde ziyaret etti
    instagram gel gel
    Yeni Arayış
    KünyeGizlilik PolitikasıE-BültenRSSSitemapSitene EkleArşiv
    SOSYAL MEDYA BAĞLANTILARI
    FACEBOOKTWITTERINSTAGRAMLINKEDIN

    Yeni Arayış | Onemsoft Haber Yazılımı