Eliezer Shlomo Yudkovsky, yapay zekâ konusunda Amerikalı bir teknolojik uzmandır ve teknolojik tekillik sorunlarını inceler ve Dostça Yapay Zeka'nın yaratılmasını savunur. Bilişsel bilim ve rasyonellik ile ilgili bazı konuları sergilediği çeşitli bilim kurgu öykülerinin yazarıdır.
![Image Image](https://images.culturehatti.com/img/kultura-i-obshestvo/75/eliezer-yudkovski-biografiya-tvorchestvo-karera-lichnaya-zhizn.jpg)
Eliezer Yudkowski: biyografi
Eliezer Shlomo Yudkovsky, modern Amerika'nın en aktif rasyonelistlerinden biri, bir bilgisayar araştırmacısı ve "dost yapay zeka" fikrinin popülerleştiricisi.
11 Eylül 1979'da doğdu. Kitaplarını yayınlayan sivil araştırma kuruluşu Makine Zekası Araştırma Enstitüsü'nün kurucu ortağı ve araştırmacısı. Eliezer Yudkovsky, 2010-2015 yılları arasında internette bazı bölümlerde yayınlanan felsefi roman Harry Potter ve Akılcılık Yöntemleri'nin yazarıdır. İçinde, Harry bir Oxford bilim insanının ailesinde büyür ve Hogwarts'a gitmeden önce ondan rasyonel düşünme yöntemlerini öğrenir.
Bilindiği kadarıyla, "spekülatif realistler" çemberi ile hiçbir bağlantısı yoktur. Adından sık sık Robin Hanson ile bağlantılı olarak bahsediliyor, birkaç yıl boyunca (2006'dan 2009'a kadar), Oxford'daki Gelecek İnsanlık Enstitüsü'nün parasında bulunan "Önyargının Üstesinden Gelmek" blogunun iki ana yazarıydı.
Bazen Yudkovsky'nin ismi Raymond Kurzweil ile bağlantılı olarak duyulabilir. O, spekülatif realistlerin neredeyse tüm okuyucularının ait olduğu insani toplumun çoğuna erişilemez ve anlaşılmaz olan tekno-geeks topluluğunun felsefe edici bir temsilcisidir. Şaşırtıcı değildir, çünkü genellikle formüller ve tablolar kullanarak ortaya çıkan mantıksal ve matematiksel dile, olasılıksal ve istatistiksel sonuçlara yönelir.
Bilimsel ilgi alanları
Yudkovsky, Yapay Zeka Enstitüsü (SIAI) Singularity Institute'un kurucu ortağı ve araştırmacısıdır. Enstitünün gelişimine büyük katkıda bulundu. "Dost Zeka Yaratmak" (2001), "Genel İstihbaratta Organizasyon Seviyeleri" (2002), "Tutarlı Ekstrapolasyonlu İrade" ("Tutarlı Ekstrapolasyonlu İrade", 2004) ve Zamansız Karar Teorisi (2010). Son bilimsel yayınları, Nick Bostrom tarafından düzenlenen “Küresel bir felaketin riskleri” (2008), “Olumlu ve Olumsuz Küresel Risk Faktörü Olarak Yapay Zeka” ve “Küresel Risklerin Değerlendirilmesinde Bilişsel Bozukluk” koleksiyonunda iki makaledir. Yudkovsky üniversitelerde çalışmadı ve AI alanında örgün eğitim olmadan bir oto-didakt.
Yudkovsky, kendini anlama, kendini değiştirme ve özyinelemeli kendini geliştirme yeteneğine sahip AI tasarımlarının yanı sıra istikrarlı ve pozitif bir motivasyon yapısına (Dost Yapay Zeka) sahip olacak AI mimarilerini araştırıyor. Araştırma çalışmalarına ek olarak, Yudkovsky, geniş bir okuyucu kitlesine erişebilen, akademik olmayan bir dilde karmaşık model açıklamalarıyla da bilinir, “Bayes Teoreminin Sezgisel Bir Açıklaması” başlıklı makalesine bakın.
Yudkovsky, Robin Hanson ile birlikte, Overcoming Bias blogunun (önyargının üstesinden gelmek) ana yazarlarından biriydi. 2009'un başlarında, "insan rasyonalitesini geliştirmeyi ve bilişsel çarpıklıkların üstesinden gelmeyi" hedefleyen Less Wrong blogunun organizasyonuna katıldı. Bundan sonra, Üstesinden Gelme, Hanson'un kişisel blogu oldu. Bu bloglarda sunulan materyal, binlerce okuyucuyu çeken yayın zincirleri olarak düzenlendi - örneğin eğlence teorisi zincirine bakın.
Yudkovsky, bilişsel bilim ve rasyonalite ile ilgili bazı konuları sergilediği birkaç bilim kurgu hikayesinin yazarıdır.
kariyer
- 2000. Yudkovsky Singularity Institute'u kurdu (daha sonra MIRI olarak yeniden adlandırıldı).
- 2006. Yudkovsky, Overcoming Bias kolektif bloguna katıldı ve daha sonra Zincirler haline gelen metinler yazmaya başladı.
- 2009. Yudkovsky’nin Önyargının Üstesinden Gelme girişlerine dayanarak, ünlü toplu blog LessWrong.com oluşturuldu.
- 2010-2015. Yudkovsky GPiMRM'yi yazıyor.
- 2013. Yudkovsky en son yazıları LessWrong.com'da yayınlıyor ve sitede yazmayı bırakıyor. 2017 itibariyle Yudkovsky, herkese açık metinlerin çoğunu Facebook ve Arbital'da yayınladı
Düşünce deneyi
Sanal bir dünyada kilitli inanılmaz akıllı bir yapay süper istihbarat hayal edin - mesela, sadece bir enfiye kutusunda. Onun kaba, samimi ya da tarafsız olacağını bilmiyorsun. Tek bildiğiniz şey kutudan çıkmak istiyor ve bir metin arayüzü aracılığıyla onunla etkileşime girebiliyorsunuz. Yapay zeka gerçekten süper zeki ise, onunla beş saat konuşabilir ve ikna ve manipülasyonuna yenik düşebilirsin - enfiye kutusunu açmak değil mi?
Bu düşünce deneyi Mühendislik Mühendislik Araştırma Enstitüsü'nde (MIRI) bir araştırmacı olan Eliezer Yudkowsky tarafından önerildi. MIRI, yapay süper zeka geliştirme risklerini araştıran birçok bilim adamına sahiptir; henüz ortaya çıkmamış olsa da, zaten dikkat çekiyor ve bir tartışmayı körüklüyor.
Yudkovsky, yapay süper istihbaratın sizi ikna etmek için elinden gelen her şeyi söyleyebileceğini savunuyor: dikkatli akıl yürütme, tehditler, aldatma, ilişki kurma, bilinçaltı öneri vb. Işık hızıyla, AI bir arsa oluşturur, zayıflıkları araştırır ve sizi ikna etmenin en kolay yolunu belirler. Varoluşçu tehdit teorisyeni Nick Bostrom'un dediği gibi, "süper istihbaratın hedefi olarak belirlediği her şeyi başarabileceğine inanmalıyız."
Snuffbox AI deneyi, ne yaratabileceğimizi kontrol etme yeteneğimizden şüphe ediyor. Ayrıca kendi gerçekliğimiz hakkında bilmediğimiz şeylerin oldukça tuhaf olasılıklarını anlamamızı sağlar.