Yapay Zekanın Bilgi Kaynağını Kim Belirliyor? Meta'nın Eski Haber Şefi Campbell Brown Yanıtladı

Kariyerini doğru bilgiye ulaşma tutkusuyla şekillendiren, eski TV gazetecisi ve Facebook'un ilk haber sorumlusu Campbell Brown, yapay zekanın bilgi tüketim alışkanlıklarını dönüştürme biçimi karşısınd...
Kariyerini doğru bilgiye ulaşma tutkusuyla şekillendiren, eski TV gazetecisi ve Facebook'un ilk haber sorumlusu Campbell Brown, yapay zekanın bilgi tüketim alışkanlıklarını dönüştürme biçimi karşısında ciddi endişeler taşıyor. Tarihin tekerrür etme riskini gören Brown, bu sorunu çözmek adına Forum AI adlı yeni girişimini hayata geçirdi. San Francisco'da düzenlenen StrictlyVC etkinliğinde detayları paylaşılan Forum AI, yapay zeka modellerinin jeopolitik, ruh sağlığı, finans ve işe alım gibi "yüksek riskli" ve net cevapların olmadığı karmaşık konulardaki performansını değerlendiriyor.
Forum AI'ın çalışma prensibi, dünyanın önde gelen uzmanlarıyla iş birliği yaparak özel kıyaslama ölçütleri (benchmark) oluşturmak ve ardından yapay zeka modellerini ölçeklenebilir şekilde değerlendirecek "yapay zeka hakemleri" eğitmek üzerine kurulu. Jeopolitik çalışmaları için Niall Ferguson, Fareed Zakaria, eski Dışişleri Bakanı Tony Blinken ve eski Meclis Başkanı Kevin McCarthy gibi ağır topları ekibine dahil eden Brown, yapay zeka hakemlerinin insan uzmanlarla %90 oranında fikir birliğine varmasını hedeflediklerini ve bu eşiği yakaladıklarını belirtti.
New York merkezli şirketin kuruluş hikayesini ChatGPT'nin halka açıldığı döneme dayandıran Brown, o anki farkındalığını şöyle anlatıyor: "Meta'dayken, tüm bilgilerin akacağı ana kanalın bu olacağını ve mevcut durumun hiç de iyi olmadığını fark ettim." Özellikle çocuklarının geleceği adına bu durumu varoluşsal bir tehdit olarak gören Brown, temel model geliştiricilerinin kodlama ve matematiğe aşırı odaklandığını, ancak haber ve bilgi doğruluğunun göz ardı edildiğini savunuyor.
Forum AI'ın öncü modeller üzerinde yaptığı ilk değerlendirmeler ise oldukça çarpıcı sonuçlar ortaya koydu. Brown, Gemini'nin Çin ile ilgisi olmayan konularda bile Çin Komünist Partisi web sitelerinden veri çektiğini ve neredeyse tüm modellerde belirgin bir sol siyasi eğilim olduğunu belirtti. Ayrıca bağlam eksikliği, perspektif kayıpları ve argümanların çarpıtılması gibi daha ince hataların da yaygın olduğunu vurgulayan Brown, katedilecek çok yol olduğunu ancak basit düzenlemelerle sonuçların büyük ölçüde iyileştirilebileceğini ekledi.
Facebook yıllarında bir platformun yanlış önceliklere odaklandığında neler yaşandığına yakından tanıklık eden Brown, etkileşimi önceliklendiren algoritmaların topluma zarar verdiğini ifade etti. Kurduğu doğrulama programının artık var olmadığını hatırlatan deneyimli isim, yapay zeka çağında aynı hataların tekrarlanmaması gerektiğini savunuyor.
Yorumlar (0)
Yorum yapmak için giriş yapın.
İlgili Haberler
Clio'ya 500 Milyon Dolarlık Dev Yatırım: Anthropic ile Rekabet Kızışıyor
2 hours ago
Princeton'da Yapay Zeka Krizi: Öğrencilerin %30'u Kopya Çekiyor, Kimse İspiyonlamıyor
8 hours ago
YouTube'dan Yeni Hamle: Yayıncıları ve Sponsorları Çekecek "Streaming" Şovlar Geliyor
10 hours ago