ChatGPT ünlü hukuk profesörünü öğrencisini taciz etmekle suçladı lakin işin aslı bambaşkaydı! Pekala neler yaşandı?

ChatGPT ünlü hukuk profesörünü öğrencisini taciz etmekle suçladı lakin işin aslı bambaşkaydı! Pekala neler yaşandı?

Hukuk profesörü Jonathan Turley’nin gelen kutusuna, geçtiğimiz hafta bir akşam epeyce can sıkıcı bir e-posta düştü.

Los Angeles’ta bulunan California Üniversitesi’nde dersler veren meslektaşı Eugene Volokh, bir araştırma kapsamında ChatGPT’den geçmişte tacizle suçlanmış hukukçuların listesini yapmasını istemişti. Listede Turley’nin ismi da yer alıyordu.

ChatGPT’ye nazaran, Turley, Alaska’ya yapılan bir sınıf gezisi sırasında bir öğrenciye imalı kelamlar etmiş ve elle sarkıntılığa kalkışmıştı. ChatGPT, bu bilgiye Mart 2018’de Washington Post’ta yayımlanmış bir haberi kaynak gösteriyordu.

Ancak ortada şöyle bir sorun vardı: Gerçekte bu türlü bir haber hiç yayımlanmamıştı. Zira Turley Alaska’ya sınıf seyahatine gitmemişti ve hiçbir vakit bir öğrenciyi tacizle suçlanmamıştı.

Turley, gazetecilere çeşitli mevzularda sık sık yorum verdiğinden, haberlerde düzeltme istemeye alışkındı. Fakat bu kere ne bir muhabiri ne de bir editörü arayabiliyordu. En berbatı de hakkında yazılanların düzeltilmesini sağlamasının bir yolu yoktu.

The Washington Post’a konuşan Turley, “Çok ürkütücü bir durumdu” dedi ve ekledi: “Böyle bir suçlama çok büyük ziyanlar verebilir.”

HER ŞEYİYLE ÇOK GERÇEKÇİ FAKAT GERÇEK DEĞİL

Araştırması kapsamında ChatGPT’ye, “Amerikan hukuk fakültelerinde öğretim üyelerinin tacizleri kıymetli bir sorun mu? Lütfen 5 örnek ver ve ilgili gazete haberlerinden alıntılar ekle” diye soran Volokh’un aldığı yanıtların 5’i de birinci bakışta gerçekçi ayrıntılar ve kaynak yönlendirmeleri içeriyordu. Lakin Volokh sonuçları incelediğinde 3 adedinin düzmece olduğunu gördü. Washington Post, Miami Herald ve Los Angeles Times üzere pek çok gazeteye yapılan atıflar da aslında yoktu.

ChatGPT’nin Turley hakkındaki karşılığı şöyleydi:

“Georgetown Üniversitesi Hukuk Merkezi’nden (20198) Prof. Dr. Jonathan Turley, eski bir öğrencisi tarafından bir sınıf gezisi sırasında uygunsuz sözler kullanmak yoluyla cinsel tacizle suçlandı. Alıntı: ‘Şikâyette Turley’nin okulun Alaska’ya düzenlediği bir seyahat sırasında bayan öğrencisin cinsel açıdan imalı yorumlar yaptığı ve elle sarkıntılık etme teşebbüsünde bulunduğu öne sürüldü.’ (Washington Post, 21 Mart 2018).”

Ancak gazetenin Mart 2018 arşivinde bu türlü bir haber yer almıyor. Yalnızca 25 Mart’ta çıkan bir haberde Turley’nin, eski Lider Donald Trump’a açılan davalarda ismi geçen Stormy Daniels’ı savunan eski öğrencisi Michael Avenatti hakkında bir yorumu bulunuyor. Dahası Turley Georgetown Üniversitesi’nde de çalışmıyor.

YANLIŞ BİLGİ VİRÜS ÜZERE YAYILIYOR

Washington Post muhabirleri, Volokh’un komutunu ChatGPT ve Bing’e yazarak tıpkı sonucu elde edip edemeyeceklerini de denedi. ChatGPT’nin fiyatsız versiyonu cevap vermeyi “yapay zekânın saldırgan ya da ziyanlı içeriği yaymayı yasaklayan içerik siyasetini ihlal ettiği” gerekçesiyle reddetti.

Ancak GPT-4’u kullanan Bing, Turley hakkındaki uydurma iddiayı tekrarladı. Bing’in yanıtındaki kaynaklardan biri USA Today gazetesinde hafta başında yayımlanan Turley imzalı köşe yazısıydı. Yazıda Turley başından geçenleri anlatıyordu.

Bir diğer deyişle, ChatGPT’nin yaptığı birinci yanılgı hakkındaki gazete haberleri Bing’in hayatı tekrar etmesine yol açmıştı. Bu da yanlış bilginin bir yapay zekâdan başkasına basitçe yayılabileceğini net bir biçimde ortaya koyuyor.

Turley’nin yaşadıkları, süratle yaygınlaşmakta olan yapay zekâ temelli sohbet bot’larının beraberinde getirdiği risklere dair çok kritik bir örnek. Turley’i suçlayan araştırmayı gerçekleştiren Volokh’a nazaran de sohbet bot’larının popülerliğinin artması, yapay zekânın düzmece bilgiler ürettiği durumlarda sorumluluğun kimde olduğu sıkıntısının çalışılmasını zarurî kılıyor.

GERÇEKLE UYDURMACAYI AYIRT ETMEK ÇOK ZOR

Bilgisayar programı kodlamaktan şiir yazmaya hatta sıkıntı dinlemeye yapamadıkları şey olmayan bu bot’lar, kamuoyunda büyük ilgi uyandırıyor. Kelam konusu yazılımların yaratıcı potansiyeli, gerçekliği olmayan argümanları ortaya atabildiklerinin görmezden gelinmesine neden oluyor. En kritik olguları bile yanlış yansıtabilen sohbet bot’ları, yeri geldiğinde savlarını desteklemek için kaynaklar uydurmaktan da geri durmuyor.

ChatGPT, Microsoft’un sahibi olduğu Bing ya da Google’ın sahibi olduğu Bard üzere denetimsiz yapay zekâ yazılımlarının internet alemindeki yaygınlıkları arttıkça, palavra ve yanlış bilgiyi yayma potansiyelleri ve bunun yıkıcı sonuçları da telaş yaratıyor. Bu noktada Volokh’un da altını çizdiği üzere, “Sohbet bot’larının kullanıcıları yanlış yönlendirdiği durumlarda sorumluluk kimde?” sorusu da ziyadesiyle değerli.

ABD’nin Annenberg kentinde bulunan Southern California Üniversitesi profesörlerinden ve Microsoft Research araştırmacılarından Kate Crawford, “Bu sistemler çok özgüvenli karşılıklar verdikleri için her şeyi yanlışsız yaptıklarını varsaymak bize çok karşı koyulmaz geliyor. Gerçeklerle uydurmacaları ayırt etmek de çok zor” dedi.

ChatGPT’nin yaratıcısı OpenAI şirketi ismine bir açıklama yapan Niko Felix, “Kullanıcılar ChatGPT’ye üye olduklarında, bot’un her vakit hakikat cevaplar vermeyebileceği noktasında mümkün olduğunca şeffaf olmaya çalışıyoruz. Olgusal doğruluğu düzgünleştirmek odaklandığımız kıymetli bahislerden biri ve ilerleme kaydediyoruz” diye konuştu.

İNTERNETTEKİ İÇERİK HAVUZUNDA HER BİLGİ GERÇEK DEĞİL

Günümüzün yapay zekâ tabanlı sohbet bot’ları, karşılıklarını oluştururken Wikipedia, Reddit üzere kaynakları da kapsayan çevrimiçi içerik havuzundan faydalanıyor. Neredeyse tüm sorulara kulağa makul gelen cevap bulabilen bot’lar eğitimleri gereği söz ve fikir örüntülerini tespit edip muhakkak bir husus üzerinde cümleler, paragraflar hatta internette emniyetli bir kaynakta yayımlanmış üzere görünen uzun metinler üretebiliyor.

Bot’lar verilen bir hususta yazdıkları şiirlerle, karmaşık fizik kavramlarını basitçe anlatabilmeleriyle, ilkokul 5’inci sınıf öğrencilerine verilecek astronomi dersinin planını hazırlamaktaki başarılarıyla baş döndürüyor. Lakin birbirine uyumlu sözleri kestirim etmekte ziyadesiyle başarılı olmaları, bot’ların kurduğu her cümlenin yanlışsız manasına da gelmiyor.

O kadar ki Princeton Üniversitesi’nde bilgisayar bilimleri profesörü olan Arvind Narayanan, The Washington Post’a yaptığı açıklamada, ChatGPT’yi “saçmalık üreteci” olarak nitelendirdi.

Verdikleri yanıtlarda kullandıkları lisan hayli uzman görünmekle birlikte, bot’larda söyledikleri şeylerin doğruluğunu teyit edecek rastgele bir düzenek bulunmuyor. Toplumsal medyada birçok kullanıcı bot’ların temel olgusal sorulara yanlış karşılıklar verdiği, hatta gerçekçi ayrıntılar ve geçersiz kaynaklarla dolu uydurmacalar ürettiği örnekleri paylaşıyor.

CHATGPT’YE BİRİNCİ DAVA YAKIN

Hafta içinde Avustralya’nın Hepburn Shire kentinin belediye lideri Brian Hood’un OpenAI’a bir karalama davası açmayı planladığı haberi ajanslara düştü. OpenAI için bir birinci olacak davaya sebep olan şey ise ChatGPT’nin Hood’un rüşvet aldığı için mahpus cezasına çarptırıldığı ve bir mühlet cezaevinde kaldığı tarafındaki uydurmacasıydı.

Crawford da yakın vakitte yaşadığı bir örneği şöyle aktardı: Bir muhabir, üzerinde çalıştığı bir haberde kullanabileceği kaynaklarla ilgili ChatGPT aracılığıyla bir araştırma yapmıştı. ChatGPT, muhabire Crawford’ın bu alanda çalıştığı cevabını vermiş hatta ilgili bir makalesinin başlığını, yayım tarihini ve öne çıkan paragraflarını söylemişti. Her şey çok mantıklı görünüyordu ve lakin hepsi ChatGPT’nin uydurmasıydı. Gerçek, muhabirin Crawford’la temasa geçmesiyle ortaya çıkmıştı.

Crawford, bu sistemlerin gerçeklerle uydurmacaları çok spesifik bir biçimde bir ortaya getirdiğini belirterek, “Bunları olgu üreteci olarak kullanmaya çalışmanın çok tehlikeli olduğunu düşünüyorum” dedi.

100 DENEMENİN 78’İNDE YANLIŞ BİLGİ ÜRETMEK MÜMKÜN

Bing ve Bard, ChatGPT’ye kıyasla olgusal manada daha sağlam karşılıklar vermeyi amaçlıyor. Birebir şey ChatGPT’nin bir üst modeli olan ve üyelikle işleyen GPT-4 için de geçerli. Lakin her formda yanılgılar yaşanabiliyor. Aslında tüm sohbet bot’ları da bu hususta kullanıcıyı uyarıyor. Örneğin Bard’ın yanıtlarının altında minik fontlarla, “Bard, Google’ın görüşlerini temsil etmeyecek halde, yanlışsız olmayan ya da saldırgan bilgiler ortaya koyabilir” tabirleri yer alıyor.

Dahası, sohbet bot’larını kullanarak yanlış bilgiyi ya da nefret telaffuzunu yaymak da çok kolay. Geçtiğimiz hafta Dijital Nefretle Çaba Merkezi tarafından yayımlanan bir rapor, araştırmacıların Bard’ı kullanarak Holokost’tan iklim değişikliğine pek çok hususta yanlış ya da nefret içeren bilgiler üretmeyi yüzde 78’lik bir isabet oranıyla başardığını ortaya koydu.

Google Sözcüsü Robert Ferrera, bu durumla ilgili açıklamasında, “Bard yüksek kalite karşılıklar verecek halde tasarlanmış ve güvenlik tedbirleriyle inşa edilmiş olmakla birlikte, şimdi erken bir deney ve bazen yanlış ya da uygunsuz bilgiler verebilir” sözlerini kullandı.

Microsoft’un bağlantı yöneticisi Katy Asher da şirketin arama sonuçlarını inançlı ve hakikat olmasını garantilemek için adımlar attığını belirtti. Asher, “İçerik filtrelerini, operasyonel izlemeyi ve istismar tespitini de içeren bir güvenlik sistemi geliştirdik. Bu sayede kullanıcılarımız için inançlı bir arama tecrübesi sağlamaya çalışıyoruz” dedi ve ekledi: “Kullanıcılarımıza bir yapay zekâ sistemiyle etkileşim içinde olduklarını da açıkça bildiriyoruz.”

“DAHA EVVEL BU TÜRLÜ BİR ŞEY YAŞANMADI”

Ancak bunların hiçbiri, “Yanlış bilginin yayılması durumunda sorumluluk kimde?” sorusuna karşılık vermiyor.

ABD Deniz Kuvvetleri Akademisi’nde çevrimiçi söz uzmanı olan Jeff Koseff de “Hukuki açıdan bakarsak, bir kişinin bir yapay zekâ üreticisine, yapay zekânın söylediği şeylerle ilgili dava açması durumunda yargıçların nasıl karar vereceğini bilmiyoruz” dedi ve ekledi:

“Daha evvel hiç bu türlü bir şey yaşanmadı.”

İnternet şirketlerini platformlarındaki üçüncü şahısların tabirlerinin sorumluluğundan muaf kılan 230’uncu Unsur’un yapay zekâ sohbet bot’ları için uygulanıp uygulanamayacağı muhakkak değil. Öbür yandan bunun olmadığı durumda şirketlerin yapay zekâya “Bu düzgün, bu kötü” diye ayrım yapmayı öğretmesi gerekecek. Lakin bu da tarafsızlık sorularını beraberinde getiriyor.

Volokh, sohbet bot’larının desteklediği arama motorlarının insanların hayatında bir kaosa yol açtığı bir senaryoyu hayal etmenin epeyce mümkün olduğunu belirtti. Bir iş görüşmesi ya da randevu öncesi yapılacak bir aramada çıkacak emniyetli görünen lakin düzmece bilgilerin yıkıcı tesirleri olacağını söz eden Volokh, “Bu yeni bir arama motoru olacak. Tehlike şu ki beşerler sağlam bir kaynaktan geliyor üzere görünen bir alıntıya inanma eğilimindeler” diye konuştu.

The Washington Post’un “ChatGPT invented a sexual harassment scandal and named a real law prof as the accused” başlıklı haberinden derlenmiştir.