Erişilebilirlik

Teknoloji şirketlerinden ‘güvenli ve sorumlu’ yapay zeka için yeni forum


OpenAI, Microsoft, Google ve Anthropic, yapay zeka alanında araştırma güvenliğine odaklanacak.
OpenAI, Microsoft, Google ve Anthropic, yapay zeka alanında araştırma güvenliğine odaklanacak.

Sohbet robotu ChatGPT’yi geliştiren OpenAI, Microsoft, Google ve Anthropic, yapay zeka alanında araştırma güvenliğine odaklanacak ve bu alanda en iyi uygulamaların ortaya konmasına çalışacak.

Frontier Model Forum (Sınır Model Forumu) adını taşıyan birim, yasa yapıcılarla ve akademi dünyasıyla birlikte çalışarak şirketler ve hükümetler arasında bilgi paylaşımını kolaylaştıracak.

Forumun önümüzdeki aylarda danışmanlık kurulu, yönetim kurulu ve bir çalışma grubuyla birlikte kaynak oluşturması da bekleniyor.

Microsoft Başkanı Brad Smith, “Yapay zeka teknolojileri üreten şirketlerin bunun güvenli, emniyetli olduğundan emin olma ve insan kontrolu altında olmaya devam etmesini sağlama sorumluluğu var” dedi.

Forumun lobi çalışmalarında bulunmayacağını söyleyen OpenAI sözcüsü, yeni forum kapsamında yapay zeka modellerine ilişkin teknik değerlendirmelerin ve kamuya açık bir referans olması açısından kriterlerin paylaşılacağını belirtti.

Biden yönetiminin aralarında Google, Meta, Microsoft ve Amazon’un da olduğu teknoloji şirketleriyle yaptığı görüşmelerin ardından şirketler yapay zeka teknolojisinde riskleri en aza indirmek ve geliştirilen ürünlerin güvenli olmasını sağlamak amacıyla gönüllü olarak bir dizi önlem almayı kabul etmişti.

Şirketler yapay zeka ürünlerini piyasaya sürmeden önce bu teknolojinin güvenli olduğundan emin olmak amacıyla bazı önlemleri hayata geçirmeyi planlıyor.

Forum

STÜDYO VOA

Biden ve Zelenski güvenlik anlaşması imzaladı – 13 Haziran
lütfen bekleyin

No media source currently available

0:00 0:29:58 0:00
XS
SM
MD
LG