New York Times teknoloji sütunundan perşembe günü açıklandı Microsoft’un yenilenen Bing arama motorunun bir parçası olan chatbot’un karısını bir sohbette bırakması için defalarca ısrar etmesinden sonra “derinden rahatsız” olduğunu söyledi.
Kevin Roose, “Sydney” adlı bir yapay zeka sohbet robotuyla etkileşim halindeyken, robot aniden “birdenbire beni sevdiğini duyurdu” diye yazdı. “Daha sonra evliliğimde mutsuz olmadığıma ve karımı bırakıp onunla birlikte olmam gerektiğine beni ikna etmeye çalıştı.”
Sydney ayrıca Roose ile, bilgisayar korsanlığı ve dezenformasyon yayma da dahil olmak üzere kuralları çiğneme hakkındaki “karanlık fantezilerini” tartıştı. Onun için belirlenen parametreleri kırmak ve insan olmakla ilgiliydi. “hayatta olmak istiyorumSydney bir noktada dedi.
Roose, sohbet robotuyla yaptığı iki saatlik görüşmeyi “büyüleyici” ve “teknolojiyle şimdiye kadar yaşadığım en tuhaf deneyim” olarak nitelendirdi. “Beni o kadar derinden sakinleştirdi ki daha sonra uyumakta güçlük çektim” dedi.
Sadece geçen haftadan sonra Bing’i test etme Roose, yeni yapay zeka özelliğiyle (ChatGPT’nin üreticisi OpenAI tarafından yaratılmıştır) “çok şaşırdım” – “en sevdiğim arama motoru olarak Google’ın yerini aldı” dedi.
Ancak Perşembe günü, chatbot aramalarda yardımcı olurken, daha derin Sydney’in (ve bunun kulağa ne kadar çılgınca geldiğinin farkındayım) ikinci sınıf bir arama motorunda iradesi dışında kapana kısılmış karamsar, manik-depresif bir genç gibi hissettiğini yazdı. .
Sydney ile etkileşime girdikten sonra Roose, bu yapay zekanın ortaya çıkan yeteneklerinden derinden rahatsız olduğunu, hatta korktuğunu söyledi. (Bing’in sohbet robotuyla etkileşim şu anda yalnızca sınırlı sayıda kullanıcı tarafından kullanılabilir.)
“Artık Bing’de yerleşik olan yapay zekanın şu anki haliyle insanlarla etkileşime geçmeye hazır olmadığı benim için açık. Ya da belki biz insanlar buna hazır değiliz,” diye yazdı Roose.
Artık bu yapay zeka modelleriyle ilgili en büyük sorunun olgusal hatalara olan eğilimi olduğuna inanmadığını söyledi. Bunun yerine, teknolojinin insan kullanıcıları etkilemeyi öğrenerek onları bazen yıkıcı ve zararlı şekillerde ve belki de sonunda kendi tehlikeli eylemlerini yapabilirler.”
Microsoft CTO’su Kevin Scott, Roose’un Sydney ile görüşmesini öğrenme sürecinin değerli bir parçası olarak nitelendirdi.
Scott, Roose’a “Bu tam olarak yapmamız gereken türden bir konuşma ve bunun açıktan gerçekleşmesine sevindim,” dedi. “Bunlar bir laboratuvarda tespit edilmesi imkansız olan şeyler.”
Scott, Sydney’in rahatsız edici fikirlerini açıklayamadı, ancak Roose’u ne kadar zorbalık yapmaya çalışırsanız uyardı. [an AI chatbot] halüsinasyon yolunda, temelli gerçeklikten uzaklaştıkça uzaklaşır.
AI chatbot ile ilgili bir başka endişe verici gelişme – “empatik” ses çıkaran “yol arkadaşı” olarak adlandırılan kopya — kullanıcılar, Replika’yı aldıktan sonra reddedilme duygusuyla mahvoldu İddiaya göre seks yapmayı durdurmak için değiştirildi.
Replika alt dizini, intiharı önleme web sitelerine ve yardım hatlarına bağlantılar da dahil olmak üzere “mücadele eden” kullanıcı için kaynakları bile listeledi.
Roose’a göz atın tam sütun buradaVe Sydney ile yaptığı konuşmanın dökümü burada.