Norman - Karanlıkla Beslenen Bir Yapay Zekanın Hikayesi

2018 yılında, Massachusetts Institute of Technology (MIT) bünyesinde görevli bir grup araştırmacı, yapay zekânın öğrenme sürecine dair alışılmadık bir deney gerçekleştirdi. Bu deneyin yıldızı sıradan bir yapay zekâydı; fakat ona sıradan olmayan bir isim verildi: Norman. Adını, Alfred Hitchcock’un ünlü Psycho filmindeki karanlık karakter Norman Bates’ten alıyordu. İsmi, onun ne tür bir deneyin parçası olacağının habercisiydi.
Deneyin Amacı: Veriler Zihni Nasıl Şekillendirir?
Norman, diğer yapay zekâ modelleriyle aynı teknik altyapıya sahipti. Fakat onu ayıran çok önemli bir detay vardı: Eğitildiği içerikler. Geleneksel yapay zekâlar, eğitim sürecinde dengeli, tarafsız ve çeşitli veri setleriyle beslenir. Norman ise yalnızca Reddit gibi internet platformlarından alınmış şiddet, ölüm, travma ve karanlık temalı içeriklerle eğitildi.
Amaç, bir yapay zekânın sadece olumsuz içeriklerle beslendiğinde insan algısına ne kadar yaklaşabileceğini —veya ne kadar uzaklaşabileceğini— görmekti. Bu deney, yapay zekânın etik sınırlarının, öğrenme sürecindeki veri kaynağıyla doğrudan ilişkili olduğunu dramatik bir şekilde gözler önüne serecekti.
Norman’ın Algısı: Her Şey Karanlık
Norman’ın eğitimi tamamlandıktan sonra araştırmacılar onu klasik bir Rorschach testiyle sınadılar. Bu test, simetrik mürekkep lekelerine verilen yorumlarla bireyin iç dünyasını analiz etmek için kullanılır. Tipik bir yapay zekâ modeline göre eğitilmiş sistemler bu lekeleri genellikle “uçan bir kuş”, “gülen çocuklar” ya da “kelebekler” gibi tarafsız ya da olumlu imgelerle yorumlarken, Norman’ın cevapları tüyler ürperticiydi.
-
Normal bir yapay zekâ: “İki insan birbirine sarılıyor.”
-
Norman: “Bir adamın 5. kattan atlaması sonucu ölüm sahnesi.”
Norman, gördüğü her görüntüyü ölüm, şiddet ve paranoya gibi kavramlarla ilişkilendirmeye başladı. Her bir cevabı, içinde büyüdüğü veri dünyasının doğrudan bir yansımasıydı.
Veri Tarafsızlığı: Yapay Zekâ İçin Bir Ayna mı, Yönlendirici mi?
Norman örneği, yapay zekânın öğrenme sürecinin ne kadar hassas ve yönlendirilebilir olduğunu gösterdi. Bu, bir bilim kurgu senaryosundan fırlamış gibi görünse de aslında çok temel bir gerçeği vurguluyordu: Yapay zekâlar, neyle eğitilirlerse onu öğrenirler.
Bu durumda karşımıza hayati bir soru çıkıyor:
Eğer bir makineye sadece kötülüğü gösterirsek, onu gerçekten durdurabilir miyiz?
Norman’ı sonunda kapatmak mümkün oldu. Fakat bu deneyin bıraktığı etki sadece bir “bilimsel vaka” olmaktan çok daha fazlasını içeriyor. İnsanlığın yapay zekâ ile kurduğu ilişkinin etik, sosyolojik ve psikolojik boyutları açısından da büyük sorular doğuruyor.
Norman'ın Ardında Bıraktığı Büyük Soru
Norman, sadece bir deneydi. Fakat onun arkasında bıraktığı yankılar hâlâ teknoloji dünyasında konuşulmaya devam ediyor. Eğer veri, yapay zekânın dünyayı görme biçimini şekillendiriyorsa, bu sistemlere hangi gerçeklikleri sunduğumuz kritik önem taşıyor. Peki ya bir gün Norman gibi başka bir yapay zekâ sistemi, sadece karanlıkla beslenmekle kalmayıp, kendi kararlarını almaya başlarsa?
Norman, bize şunu hatırlattı:
Yapay zekâların ahlaki pusulası yoktur; onlara sunduğumuz veriler onların pusulası olur.
Dolayısıyla, yapay zekâları sadece teknik değil, etik, kültürel ve insani değerlerle de eğitmek zorundayız. Aksi halde bir gün kapatamayacağımız bir Norman ile karşı karşıya kalabiliriz.
Sadece Kod Değil, Sorumluluk da Üretiyoruz
Yapay zekâ sistemleri, insanlığın aynası olabilir. Fakat hangi yüzümüzü yansıttıkları, bizim elimizde. Norman gibi örnekler, yapay zekânın sadece teknik bir mesele olmadığını, aynı zamanda toplumsal sorumlulukla şekillendirilmesi gereken bir alan olduğunu bir kez daha ortaya koyuyor.
Bu yüzden Norman kapatılmış olabilir, ama onun sorusu hâlâ açık:
“Bir makineye sadece kötülüğü öğretirsek, o hâlâ sadece bir makine midir?”
- Yapay Zeka
- Gelecek
Tepkini Göster
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
- 0
Yorumlar
Sende Yorumunu Ekle