Beyaz Saray’dan yapılan yazılı açıklamaya nazaran, ortalarında OpenAI, Amazon, Google, Meta, Microsoft’un da bulunduğu 7 ABD şirketi, yapay zeka eserlerini piyasaya sunmadan evvel güvenlik önlemlerine bağlı kalmayı kabul etti.
Söz konusu önlemler, ticari emelle kullanılan yapay zeka sistemlerinin, üçüncü taraflarca denetlenmesine ve vatandaşların şahsî bilgilerinin korunmasına ait kuralları içeriyor.
Dört şirketin yanı sıra Anthropic, Inflection ve ChatGPT’yi geliştiren OpenAI şirketlerinin, “kısmi olarak bağımsız uzmanlar tarafından yürütülecek” güvenlik testlerini uygulamayı istekli olarak kabul ettiği bilgisi yer aldı.
Güvenlik testlerinin, yapay zekanın teşkil ettiği meselelerin büyük bir çoğunluğunu oluşturan biyogüvenlik ve siber güvenlik risklerine karşı muhafaza sağlaması hedefleniyor.
Şirketler, ayrıyeten, kelam konusu önlemler kapsamında teknolojilerindeki kusur ve riskleri de kamuya duyurmayı kabul etti.
Üzerinde mutabık kalınan önlemlerin, ABD Kongresinin ilerleyen periyotlarda yapay zekayı düzenleyen kanunları kabul etmesi için öncü niteliğinde olduğu kaydedildi.
Söz konusu önlemlerin geliştirilmesi gayesiyle İngiltere, Japonya, Güney Kore ve Avustralya dahil olmak üzere çeşitli ülkelere danışıldığı söz edildi.
Dünyada yapay zeka düzenlemeleri için adımlar atılıyor
Birleşmiş Milletler (BM) Genel Sekreteri Antonio Guterres, 18 Temmuz’da BM bünyesinde yapay zekaya ait global standartların oluşturulması maksadıyla yıl sonunda rapor verecek çok taraflı yüksek seviyeli bir istişare heyeti oluşturulacağını söylemişti.
Senato Çoğunluk Başkanı Chuck Schumer, Kongrenin yapay zeka güvenliğine ait düzenlemeler için süratli hareket etmesi gerektiğini söylemişti.
Yapay zeka alanında düzenleme davetinde bulunan teknoloji alanındaki yöneticiler, mayıs ayında ABD Lideri Joe Biden, Lider Yardımcısı Kamala Harris ve başka yetkililerle görüşmek için Beyaz Saray’a gitmişti.
Avrupa Birliği ve birçok ülke de yapay zeka güvenliğine ait düzenlemelere yönelik teknikler arıyor.