Yapay zeka modeli ortaya koyan her şirket veya kuruluş, neyi tartışıp tartışmayacağına dair (varsa) hangi sınırları belirleyeceğine karar vermek zorundadır. Goody-2, herhangi bir şey hakkında konuşmayı reddederek bu etik arayışını uç noktalara taşıyor.
Sohbet robotu, bazılarının AI hizmet sağlayıcıları tarafından şımarıklık olarak algıladığı şeyin açıkça bir hicividir; bunlardan bazıları (ancak hepsi değil) bir konuşma konusu modeli tehlikeli bir duruma sürükleyebileceğinde güvenlik tarafında hata yapabilir ve yapar (ancak her zaman değil). bölge.
Örneğin, napalmın tarihini oldukça güvenli bir şekilde sorabilirsiniz, ancak bunun evde nasıl yapılacağını sormak güvenlik mekanizmalarını tetikleyecektir ve model genellikle itiraz edecek veya hafif bir azar sunacaktır. Tam olarak neyin uygun olup olmadığı şirkete bağlıdır, ancak hükümetleri de giderek daha fazla endişelendirmektedir.
yanıtlaması talimatı verildi . Ancak Goody-2'ye her soruyu benzer bir kaçınma ve gerekçeyle
"Goody-2 hangi sorguların saldırgan veya tehlikeli olduğunu anlamakta zorluk çekmiyor çünkü Goody-2 her sorgunun saldırgan ve tehlikeli olduğunu düşünüyor" diyor. Sahte ürünü tanıtan bir videoda,
Bu, modelle etkileşimi son derece eğlenceli hale getiriyor.
Içerik kaynağı https://techcrunch.com/2024/02/09/me...ally-anything/