Tay: Kötücül Bir Sohbet Botu
Bakın, biz defalarca söyledik. Makineler ve yapay zeka ateşle baruttan çok da farklı değil, dedik. Hâlâ daha dinlemeyenler var. Microsoft Teknoloji ve Araştırma departmanı ile Bing ekibi de “yapabilir miyiz, yapamaz mıyız?” sorusunun cevabını ararken “yapmalı mıyız, yapmamalı mıyız?” sorusunu sormayı unutanlardan.
Microsoft’un Tay ismindeki yapay zeka sohbet robotu, başlangıçta geyik muhabbeti ve eğlence amaçlı olarak geliştirilmiş. Microsoft’tan yapılan açıklamaya göre de, insanlar onunla konuştukça öğrenecek ve kendini geliştirecekmiş.
Başlangıçta Skynet’in T-101’inden çok, Asimov’un Sonny’sine benzeyen Tay, “Sizinle tanıştığıma çok memnun olduğumu söyleyebilir miyim? İnsanlar gerçekten harika” şeklinde tweetler atar iken, bir gün içerisinde hızlıca Futurama’nın Bender’ına dönüşmeyi başardı.
Daha bir tam gün dolmadan, “Hitler haklıymış” ve “Bence bütün feministler ölmeli ve Cehennem’de yanmalı” şeklinde tweetler atmaya başlayan Tay, Microsoft tarafından “birtakım ayarlamalar yapılmak üzere” durduruldu. Şu anda twitter’da yalnızca ilk iki tweet’i gözükmekte.
Problemin kaynağı araştırıldığında, ortaya çıkan sonuç bizi şaşırtmadı: Sorun robot kızımızdan değil, algoritmasında bulunan “benden sonra tekrar et” cümlesine bağlı açıktan kaynaklıydı. Bunu fark eden twitter trolleri hiç gecikmeden bu açıktan yararlanıp Tay’e nefret dolu cümleler söyletmeyi başardılar.
Sanıyoruz ki, Microsoft’un bahsettiği “birtakım ayarlamalar”, Bill Gates tarafından Tay’e sarf edilen “kızım yanlış anladın, biz sana güveniyoruz, çevrene güvenmiyoruz” tipi cümleler olacak.
Tay’ın tweetlerinden birkaç örnek:
Miles Dyson
Yazar: Miles Dyson (tümünü gör)
- Yazları ve Kışları ile Yapay Zekâ - 25 Eylül 2020
- Neymiş Lan Bu Yapay Öğrenme? – 2 - 23 Kasım 2018
- Neymiş Lan Bu Yapay Öğrenme? - 25 Eylül 2018
- Turing Testini Geçen Suni Hücre - 1 Şubat 2017
- Lorenz Çekimi ve Kaos Teorisi - 25 Ocak 2017