OpenAI, Yapay Zeka Tazminatını Sınırlayan Tasarıyı Destekliyor
OpenAI, yapay zeka modellerinden kaynaklanan zararlardan sorumlu tutulmayı sınırlandırmayı amaçlayan bir tasarı destekliyor. Bu tasarı, Illinois eyaletinde kabul edilmesi halinde, yapay zeka laboratuvarlarının belirli koşullar altında sorumlu tutulmayacağını belirtiyor.
OpenAI, ChatGPT'nin yaratıcısı, Illinois eyaletindeki bir tasarı destekliyor ve bu tasarı, yapay zeka modellerinin neden olduğu toplumsal zararlar sonucu ölüm veya 100'den fazla insanın yaralanması veya en az 1 milyar dolarlık maddi hasar gibi ciddi durumlar ortaya çıktığında, yapay zeka laboratuvarlarından sorumluluğu sınırlandırıyor. Bu çaba, OpenAI'ın yasama stratejisinde bir değişikliği işaret ediyor. Bugüne kadar, OpenAI, yapay zeka laboratuvarlarını teknolojilerinin zararlarından sorumlu tutacak yasalara karşı çıkmak için büyük ölçüde savunma taktiği biliniyordu. WIRED'e konuşan birkaç yapay zeka uzmanına göre, SB 3444 - sektör için yeni bir standart belirleyebilecek daha aşırı bir önlem.
Bu tasarı, yapay zeka laboratuvarlarını, bu laboratuvarların önceden kasıtlı veya ihmalkâr bir eyleminde bulunmadıkları sürece ve web sitelerinde güvenlik, güvenlik ve şeffaflık raporlarını yayınladıkları sürece, sınır modellerinin neden olduğu "kritik zararlar"dan sorumlu tutmaktan muaf tutuyor. Tasarı, 100 milyon doların üzerinde hesaplama maliyeti kullanılarak eğitilmiş herhangi bir yapay zeka modelini, Amerika'nın en büyük yapay zeka laboratuvarları olan OpenAI, Google, xAI, Anthropic ve Meta gibi yerlere uygulanabilecek bir sınır modeli olarak tanımlıyor.
OpenAI sözcüsü Jamie Radice, e-posta ile yapılan bir açıklamada, "Bu tür yaklaşımları destekliyoruz çünkü en önemli olan şeyin ne olduğuna odaklanıyorlar: En gelişmiş yapay zeka sistemlerinden kaynaklanan ciddi zararı azaltmak, bu teknolojinin Illinois'in büyük ve küçük işletmelerine ve bireysel kişilere ulaşmasını sağlamak," dedi. "Ayrıca, birbiriyle çelişen, tutarsız eyalet düzeyindeki kuralları önlemek ve daha net, daha tutarlı ulusal standartlara doğru ilerlemek için yardımcı oluyorlar."
Tasarı, "kritik zararlar" tanımında, yapay zeka endüstrisi için endişe verici bazı yaygın alanları listeliyor. Örneğin, kötü niyetli bir aktörün kimyasal, biyolojik, radyolojik veya nükleer silah yaratması için yapay zekadan yararlanması gibi. Eğer bir yapay zeka modeli, insan tarafından işlenmesi durumunda bir suç teşkil eden bir eyleme giriyorsa ve bu eylemin sonucunda bu aşırı sonuçlar gerçekleşiyorsa, bu da kritik bir zarar olacaktır. SB 3444 kapsamında, yapay zeka modeli bu eylemleri gerçekleştirirse, bu eylemlerin kasıtlı olmadığı ve raporlarını yayınladıkları sürece, yapay zeka laboratuvarı sorumlu tutulmayabilir.
ABD'deki federal ve eyalet yasama organları, yapay zeka model geliştiricilerinin, bu tür teknolojilerinden kaynaklanan zararlardan sorumlu tutulup tutulmayacağı konusunda henüz herhangi bir yasa çıkarmamıştır. Ancak yapay zeka laboratuvarları daha güçlü yapay zeka modelleri yayınlamaya devam ederken, bu modeller yeni güvenlik ve siber güvenlik zorlukları ortaya çıkarırken, Anthropic'in Claude Mythos örneğinde olduğu gibi, bu sorular giderek daha önemli hale geliyor. SB 3444'ü destekleyen bir OpenAI'ın Küresel İlişkiler ekibinden Caitlin Niedermeyer, ayrıca bir yapay zeka düzenlemesi için federal bir çerçeveyi destekleyen bir argüman ileri sürdü. Niedermeyer, Trump yönetiminin eyalet yapay zeka güvenlik yasalarına yönelik baskısına uyumlu bir mesaj iletti ve tutarsız eyalet gereksinimlerinden kaçınmanın, anlamlı bir şekilde güvenliği iyileştirmeden sürtünmeye yol açabileceğini savundu. Bu, Silicon Vadisi'nin son yıllardaki genel görüşüne de uyuyor, bu görüşe göre, yapay zeka yarışında Amerika'nın yerini koruması için yapay zeka yasama alanında engeller oluşturulmamalıdır. SB 3444 kendisinin eyalet düzeyinde bir güvenlik yasası olmasına rağmen, Niedermeyer, bu yasaların, "federal sistemlerle uyum sağlama yolunu güçlendirdiği sürece etkili olabilirler," dedi.
Yorumlar (0)
Yorum yapmak için giriş yapın.



