Teknoloji

Afet Teorilerine Bir Yenisi Eklendi: Yapay Zekalar İnsanlığın Sonunu Getirebilir mi?

ChatGPT ve GPT-4 gibi yapay zekalar her zaman gündemde. Bu sıradan dil modelleri, yalnızca ne kadar iyi çalıştıkları için değil, aynı zamanda felaket teorileri için de geniş çapta alıntılanmıştır. Özellikle son dönemde bazı teorisyenlerin yapay zekanın insanlığın sonunu getireceğine dair argümanları yeterince kafa karıştırıyor! Yapay zekanın risklerini ve felaket olasılıklarını birlikte inceleyelim… ?

Kaynak:https://www.bloomberg.com/opinion/art…

Biliyorsunuz yapay zeka son zamanlarda hiç olmadığı kadar gündemde… Ve sadece faydaları değil, felaketleri de beraberinde getirme olasılığı çok konuşuluyor.

Bu konuda son aylarda öne çıkan bir isim var: Eliezer Yudkowsky. Yapay zekanın insanoğlunun ve hatta biyolojik yaşamın sonunu getireceği yorumlarını yapan kişidir. Bu tür şeyler derken boş bir insandan bahsetmediğimizi de belirtelim. Aynı zamanda, yapay zeka üzerine araştırma yapan Makine Zekası Araştırma Enstitüsü adlı kar amacı gütmeyen bir kuruluşun da lideridir.

Yudkowsky ilk kez yapay zekanın tehlikelerinden bahsetmiyor, daha önce ortaya atılan teorileri vardı.

Geçmişte yaptığı yorumları ilerleterek artık yeni bir noktaya taşınmıştır. Ona göre insanlık kendisinden daha akıllı bir yapay zeka yaratarak ölümcül bir yola girmiştir. “İstediğimizi yapmayan, bize veya hissedebilen herhangi bir varlığa değer vermeyen makineler… İnsanlığı ancak kendisinden çok daha zeki olan insanüstü bir akıl yenebilir.”

Ona göre böyle bir yapay zeka, internetten hızla kaçabilir ve kendisine benzeyen yapay formlar oluşturabilir.

Bu nedenle amacı biyolojik yaşama savaş açmak olacaktır! Yudkowsky bu teoriyi aktardıktan sonra, felaketi önlemek için tek çaremiz olduğunu söylüyor: yapay zeka teknolojisinin gelişimini küresel olarak ve tamamen geciktirmek.

Yuskowsky’nin teklifinden kaynaklanmasa da Elon Musk ve Steve Wozniak gibi teknoloji devleri ortam olarak yapay zeka verileceğini duyurdu.

Endişeleri Yudkowsky ile benzerdi; yapay zeka çok hızlı gelişiyordu ve bu tehlikeliydi. Ancak bu adımlar, yayınladıkları açık mektupta yalnızca 6 aylık bir ertelemeden bahsedildiği için Yudkowsky ve onun emsal teorisyenlerini tatmin etmiyor.

Aslında bu durumu geçmişteki olaylara bakarak da inceleyebiliriz. Örneğin, nükleer silah ve biyolojik savaş kavramları ortaya çıktığında mükemmel örneklerdir.

O dönemlerde nükleer silahların insanlığın sonunu getirmese bile büyük çaplı hasara yol açacağı pek çok kişi tarafından tahmin ediliyordu. Hatta bu konuda uluslararası tedbirler alınmak istendi ancak çalışmaların durdurulması için verilen ‘6 aylık süre’ hükümetlerin silah geliştirmesine engel olmadı.

Dolayısıyla yapay zekada sadece bu tür kısa vadeli ortamların işe yaramayacağı argümanları güçleniyor.

Elbette birkaç kişinin büyük şirketleri işi bırakmaya davet etmesi, nükleer silahlarda olduğu kadar etkili görünmüyor. Ayrıca bu ölümcül silahlar devletin elinde geliştirildi ama yapay zekalar tamamen özel sektör kapsamında. Dolayısıyla araştırmayı durdurmaya çalışmak çok daha zordur.

Daha şimdiden, teknoloji şirketi GenFab’ın kurucu ortağı Matt Parlmer gibi isimler, Yudkowsky’yi ve emsal teorisyenleri fazla duygusal olmakla suçluyor.

‘Yapay zeka karşıtı tarikat üyeleri’ olarak tanımladığı teorisyenlerin ‘endüstrinin temel teknik unsurlarını bile anlamazken, boylarını aşan işlerden’ bahsettiklerini belirtiyor.

Atlantic’in sahibi Nicholas Thompson, Parlmer’e ek olarak, Yudkowsky’nin riskleri abarttığını düşünüyor.

“Ona denemek ve görmek için bir şans vermeliyiz. Bizi mutlu eden harika şeyler inşa ederken işin derinliklerini keşfedeceğiz.’

Ayrıca bir Bloomberg yazarı şu soruyu gündeme getiriyor;

‘O zaman 2006’da sosyal medyanın tehlikelerinden bahsederken tüm platformları kapatmalıydık. Kısa süreli gecikmeler için yeterli bilgiye sahip olmadığınızda böyle bir adım atmak mantıksız. Ayrıca ABD şirketleri buna ikna olsa bile Çin’in bu kurala uyacağını nereden biliyorsunuz?’

Tüm bu argümanları bir kenara bırakırsak, yapay zeka tamamen batmış değil. Sorun yaratan tür ChatGPT ve geliştirilmiş sürümü GPT-4 gibi dil modelleri.

Chatbot olarak ortaya çıkan bu yapay zeka modelleri, insansı olması için özenle geliştirilmiş teknolojilerdir. Özellikle GPT-4 bu konuda selefine göre çok daha başarılı. Son verilere göre GPT-4; Matematik, hukuk ve tıp gibi çeşitli alanlardaki karmaşık problemleri insan benzeri bir performansla çözebilmektedir.

Bu noktada geliştiriciler, dil modellerinin yanlış bilgi yaymak ve hatta kendi kendini icat etmek gibi sorunlar yaratabileceğinin de farkındadır.

Ancak Yudkowsky’nin teorileri hala bir abartı olarak görülüyor. Bunu düşünen kesimin genel olarak yapay zeka teknolojisinin önde gelen isimleri olması insanları tedirgin etmiyor!

Ne de olsa ünlü felaket teorilerinden biri olan uzaylı istilasından önce kendi uzaylılarımızı yaratmış olabiliriz.

Bu durumda uzaydan gelenler değil, kendimizi sardığımız insanüstü zekaya sahip makineler sonumuzu getirebilir. Bu teoriler insanı düşündürse de, bir ‘Terminatör’ yaratma olasılığı şimdilik oldukça uzak!

Bu konu hakkında ne düşünüyorsunuz? Yorumlarda buluşalım! ?

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu