Yapay Zekânın Politik İnşası serimizin bu bölümünde araştırmacı gazeteci Karen Hao ile “Yapay Zekâ İmparatorluğu” (Empire of AI) başlıklı kitabı ekseninde gerçekleştirdiğimiz derinlemesine söyleşiyi sizlerle paylaşıyoruz.
Hao söyleşide, teknoloji devlerinin modern imparatorluklar gibi davrandığını; veri, emek ve doğal kaynakları sömürerek, bilgi üretimini tekelleştirerek güçlerini nasıl pekiştirdiğini ortaya koyuyor. “Ütopya-kıyamet” ikilemi ve soyut “bulut” metaforu gibi anlatıların, endüstrinin devasa ekolojik faturasını, küresel emek sömürüsünü ve akademik özgürlüğü baskılayan sansür mekanizmalarını nasıl perdelediğini gözler önüne seriyor.
Peki, bu sömürgeci teknoloji mimarisine karşı bir alternatif mümkün mü? Hao, bu karamsar tabloya karşı umut verici bir çıkış yolu sunuyor. Yeni Zelanda’daki Māori halkının topluluk odaklı ve rızaya dayalı yapay zekâ modelini inceleyerek, teknolojinin insanlık ve gezegen yararına nasıl yeniden inşa edilebileceğine dair somut bir vizyon çiziyor. Ona göre, bugün “radikal” görünen bu temel ilkeler, aslında daha adil bir teknolojik geleceğin yapı taşlarını oluşturuyor.
Yapay Zekânın Politik İnşası
13 Ocak 2025
“Şirketler çok geniş toprakları ele geçiriyorlar”
Kitabınızın başlığı oldukça iddialı: “Yapay Zekâ İmparatorluğu”. Bu imparatorluk metaforuyla ne anlatmak istiyorsunuz? Günümüzün teknoloji devleri, bu imparatorluğu hangi kaynakları sömürerek ve hangi alanları kendilerine bağlayarak ayakta tutuyor?
Aktarmak istediğim ilk şey, bu şirketlerin sadece ticari işletmeler olmadığı; birden fazla alanda olağanüstü bir güç toplayan siyasi ve ekonomik aktörler olduğudur. İkinci olarak, davranışları tarihsel imparatorluklarla doğrudan paralellik gösteriyor. Yapay zekâ modellerini eğitmek için ihtiyaç duydukları veri merkezlerini inşa etmek üzere kelimenin tam anlamıyla çok geniş toprakları ele geçiriyorlar.
Bu modelleri eğitmek için insanların verilerinin büyük bir kısmını gasp ediyorlar. Hem modellerin geliştirilmesine harcanan emeği hem de modellerinin şu an işgücü üzerindeki etkisini göz önüne alırsak, büyük bir emek sömürüsü söz konusu. Bu şirketler ayrıca günümüzdeki en iyi yapay zekâ araştırmacılarının çoğunu işe alarak bilgi üretimini tekelleştiriyorlar.
Dolayısıyla, üretilen yapay zekâ araştırmalarının çoğu, şirketlerin istediği süzgeçten geçiyor ve bilimin kendisi temelde onların gündemleri lehine çarpıtılıyor. Son olarak, iyi ve kötü imparatorlukların olduğu anlatısına sarılıyorlar ve “kötü imparatorluğu” yenecek kadar güçlü olmak için “iyi imparatorluk” olmaları gerektiğini savunuyorlar. Tıpkı Britanya İmparatorluğu’nun Fransız İmparatorluğu’ndan daha iyi olduğunu söylemesi gibi.
Fransız İmparatorluğu da Hollanda İmparatorluğu’ndan daha iyi olduğunu söylerdi ve her imparatorluk kendini ahlaki olarak üstün olan olarak resmederdi. Bu ahlaki üstünlük çerçevesinde imparatorluk, nihayetinde yaptığının tüm insanlığa ilerleme ve modernite getirmek olduğunu iddia eder. OpenAI’ın söylediği de tam olarak bu. Yürüttüğü tüm kaynak yağmacılığına rağmen misyonunun tüm insanlığa fayda sağlamak olduğunu söylüyor.
Yapay zekâ ile ilgili konuşulurken hep iki uç senaryoyu duyuyoruz: Ya bir ütopya ya da kıyamet. Siz bu iki anlatının da gücü elinde tutanların işine yaradığını savunuyorsunuz. Bu ütopya-kıyamet ikilemi, dikkatimizi emek sömürüsü, ekolojik sonuçlar gibi günümüzün somut sorunlarından uzaklaştırarak düzenleme çabalarını nasıl boşa çıkarıyor?
Kesinlikle. Bunlar aynı madalyonun iki yüzü, çünkü her ikisi de yapay zekâyı her şeye kadir, kaçınılmaz ve durdurulamaz bir güç olarak tasvir ediyor ve belirttiğiniz gibi, dikkatleri asıl sorunlardan uzaklaştırıyorlar. Ne ütopyacılar ne de distopyacılar, şu anda son derece büyük ölçekte ve güncel zararların yaşandığını pek kabul etmezler. Kitaba ilk başladığımda şaşırmıştım çünkü bunun çoğunun bir retorik olduğunu, ütopya/distopya kampındaki insanların bunları pazarlama faaliyetlerine yardımcı olmak için söylediklerini düşünüyordum.
Ancak bunun aslında bir retorik olmadığını öğrendim. Bunları söyleyen bazı insanların bunun gerçek olduğuna dair köklü inançları var. Yapay zekânın herkesi öldürebileceğine gerçekten inanan ve bu olasılığı önlemek için hayatlarını adayan insanlar var; bu sonuca yönelik içten gelen somut bir korkuya dayanarak bunu yapıyorlar.
Dolayısıyla bu durumu tamamen retorik bir araç olarak tanımlamaktan daha karmaşık bir durum söz konusu. Ancak aynı zamanda, bu anlatılar -samimi endişelerden veya heyecanlardan doğmuş olsalar da- siyasi açıdan becerikli yöneticilerin düzenlemeleri yönlendirmek ve savuşturmak için kullandığı elverişli bir araca dönüşmüş durumda.
“Çok sayıda sansür katmanı bulunuyor”
Kitabınızda, Timnit Gebru’nun Google tarafından işten çıkarılmasına özel bir önem atfediyorsunuz. Bu vaka, yapay zekâ endüstrisinde bilimsel özgürlük ve kurumsal şeffaflıktan söz etmenin mümkün olmadığını bir kez daha gözler önüne seriyor. Şirketler, kâr hedefleriyle çatışan eleştirel araştırmaları hangi yöntemlerle susturuyor?
Pek çok mekanizma var. Artık üretilen araştırmaların hem hukuk hem de iletişim departmanları tarafından etraflıca incelenmesi gerekiyor. Bir araştırmacıya belirli bir araştırma sorusunu takip etme fırsatının verilip verilmeyeceği bile belirsiz.
Yani, bir araştırmacı belirli türde bir araştırma yapacak kaynaklara sahip olma noktasına geldiğinde, zaten o noktaya kimin ulaşabileceği konusunda önemli bir filtreleme yapılmış oluyor. Ama buna ek olarak, sadece araştırmayla ilgili değil, herhangi bir çalışan -araştırmacı olsun ya da olmasın- sorunlu bir şey görürse veya endişelerini kamuoyuyla paylaşmak isterse, bunun ciddi sonuçları olabilir. Şirketlerin kullandığı mekanizmalar, Google’ın Dr. Gebru’ya yaptığından bile daha zorlayıcı hâle geldi.
Sızıntı yapmaya veya basına bilgi vermeye çalışan birinin başına gelecek sonuçları göstermek için insanları işten çıkarma konusunda daha da agresif olacaklardır. Dolayısıyla sektörde iç içe geçmiş çok sayıda sansür katmanı bulunuyor ve bunları, nihayetinde halka ulaşan bilgi türünü kontrol etmek için kullanıyorlar.
OpenAI, kâr amacı gütmeyen bir laboratuvarken Microsoft destekli bir teknoloji devine dönüştü. Bu dönüşüm, Silikon Vadisi’ndeki diğer teknoloji girişimlerinin geleceği hakkında bize neler söylüyor?
Temelde bu durum bize Silikon Vadisi’ndeki teşvik yapılarının, herhangi bir kuruluşun kâr yerine misyon odaklı kalmasını nasıl oldukça olanaksız hâle getirdiğini gösteriyor. OpenAI’ın durumunda, bu sadece sistem düzeyindeki teşvik yapılarıyla ilgili değil, aynı zamanda OpenAI’da çalışan insanlarla da ilgili. Onların hepsi Silikon Vadisi’nin birer ürünü.
Yönetici Sam Altman, Silikon Vadisi’nin bir ürünüydü. Diğer tüm yöneticiler de Silikon Vadisi inovasyon modelinden çıktılar. Dolayısıyla kariyerleri boyunca “hızlı hareket et, bir şeyleri kır” ideolojisinin, “yıldırım ölçekleme”[1] ideolojisinin ve patlama yapan kullanıcı büyümesini agresif bir şekilde kovalama anlayışının içine gömülmüş bir şekilde büyüdüler.
İşe aldıkları tüm insanlar da yine bu diğer teknoloji şirketlerinden geliyor. Dolayısıyla, bu konularda çok güçlü kültürlerin ve normların tanımlandığı bir ortamda faaliyet gösterirken, yerleşik inovasyon anlayışının ve bir girişimin nasıl işlemesi gerektiğine dair o kökleşmiş modelin dışına çıkmak son derece zor.
“Silikon Vadisi liberalleşme karşıtı bir güç oldu”
Yapay zekâ alanındaki politikalarda, özellikle ABD’de, “Çin tehdidi” söylemi sıkça kullanılıyor. En son yayımlanan “Yapay Zekâ Eylem Planı”nda da bunu görebiliyoruz. Teknoloji şirketleri, bir yandan devlet teşvikleri alırken diğer yandan düzenlemelerden kaçınmak için bu jeopolitik rekabeti nasıl bir koz olarak kullanıyor?
Temelde şunu söylüyorlar: “Eğer bize kaynaklara sınırsız erişim izni vermezseniz, Çin kazanır, dünya sona erer veya komünist olur, ABD kaybeder ve insan hakları yok olur.” Bu argümanla ilgili her zaman söylediğim şey, bu argümanın bize şimdiye kadar ne getirdiğine bakmaktır.
Silikon Vadisi, düzenlemeler olmadan Çin’i yeneceğini ve Çin platformlarına karşı rekabet ederek dünya üzerinde liberalleştirici bir güç olacağını savundu. Ancak bunun tam tersi oldu.
Çin ile ABD arasındaki fark kapanmaya devam etti ve Silikon Vadisi dünya genelinde liberalleşme karşıtı bir güç oldu. Dolayısıyla, kanıtlardan ve geçmiş performanstan, bu anlatıların sadece ABD’deki teknoloji endüstrisine hizmet etmeyi amaçladığı oldukça açık.
Yapay zekânın “otonom” cephesinin ardında devasa, görünmez bir insan emeği ordusu yatıyor. Kitabınızda Kenyalı veri etiketleyicilerinin, sistemleri “temizlemek” için nasıl travmatik içeriklere maruz bırakıldığını anlatıyorsunuz. Sizin “felaket kapitalizmi” olarak adlandırdığınız bu küresel işbölümü, teknolojinin akıllı ve bağımsız olduğu yanılsamasını nasıl sürdürüyor?
Yapay zekâ endüstrisi, diğer birçok endüstrinin yaptığı türden bir emek dış kaynak kullanımı yapıyor; en kirli işleri yaptırmak için ortalama tüketicilerinin radarından uzak, ücra yerler buluyorlar. Ancak yapay zekâ endüstrisinde ek bir katman daha var.
Kıyafet alan herkes, bunların bir yerlerde birileri tarafından yapıldığına dair doğal bir anlayışa sahiptir. Yapay zekâda ise bu temel varsayım yok, çünkü çoğu insan dijital teknolojilerin çok fiziki bir ayak izi olduğunu ve bunun arkasında büyük bir emek yattığını anlamıyor. Diğer endüstrilerin yaptığı türden dış kaynak kullanımı yaparak, yapay zekâ ürünleri için yarattıkları “sihir perdesini” daha da güçlendiriyorlar.
“Veri merkezleri iklim krizini daha da kötüleştiriyor”
Yapay zekânın soyut bir “bulut” teknolojisi olduğu algısı da çok yaygın. Ancak siz, Microsoft’un veri merkezlerinin Şili ve Arizona gibi kurak bölgelerdeki su kaynaklarını nasıl tükettiğini belgeliyorsunuz. Bu “bulut” metaforu, yapay zekânın gezegenimizdeki ağır ekolojik faturasını nasıl görünmez kılıyor?
Sonuçların birden fazla katmanı var ve bu sadece gezegeni değil, aynı zamanda halk sağlığını da etkiliyor. Şu anda inşa edilen bilişim altyapısının miktarı -veri merkezlerinin ve süper bilgisayarların sayısı- daha önce benzeri görülmemiş bir düzeyde.
Bu veri merkezlerini desteklemek için gereken enerjiyle ilgili olarak, projeksiyonlar önümüzdeki beş yıl içinde küresel şebekeye Birleşik Krallık’ın tükettiği enerjinin 0,5 ila 1,2 katı veya Kaliforniya’nın tükettiği enerjinin iki ila altı katı kadar enerji eklememiz gerekeceğini söylüyor. Bu durum şimdiden elektrik şebekesini zorlamaya ve toplulukların enerji güvenliğini baltalamaya başlıyor. Dahası, bu enerjinin çoğu fosil yakıtlarla karşılanacak.
Bu, karbon emisyonlarında büyük bir artışa ve bu fosil yakıtların yakıldığı topluluklarda hava kirliliğinde büyük bir artışa yol açıyor. Bir de su ayak izi var, çünkü veri merkezleri ekipmanlarını soğutmak için tatlı suya ihtiyaç duyuyor.
Bu veri merkezlerinin çoğu, bu tatlı suyu kamusal içme suyu kaynaklarından alıyor. Yakın zamanda yapılan bir Bloomberg araştırması, yapay zekâ endüstrisi için inşa edilen veri merkezlerinin üçte ikisinin, zaten yeterli içme suyuna sahip olmayan, su kıtlığı çeken bölgelerde olduğunu ortaya koydu.
Bu durum iklim krizini, enerji krizini, temiz hava krizini ve temiz su krizini daha da kötüleştiriyor ve bu süreçte insanların faturalarını da artırıyor.
Kitabınızı bir umut ışığıyla sonlandırıyorsunuz: Yeni Zelanda’daki Māori halkının, kendi dil ve kültürlerini yaşatmak için yapay zekâyı sömürgeci olmayan, topluluk merkezli bir anlayışla kullanmasını örnek gösteriyorsunuz. Māori örneğinden ne gibi dersler çıkarabiliriz?
Māori örneğini gerçekten çok seviyorum. Çıkaracağım ders şu ki, kendi yapay zekâ modellerini geliştirirken, tipik bir Silikon Vadisi yapay zekâ modeli geliştirme sürecinin tüm varsayımlarını tepetaklak ettiler.
İlk olarak, modeli geliştirmeye başlamadan önce bile topluluklarına bu modeli isteyip istemediklerini sordular -ki bu asla görmediğiniz bir şeydir. Hiçbir Silikon Vadisi şirketi dünyaya bir yapay zekâ modeli isteyip istemediğini sormaz; sadece geliştirir ve dünyaya salar.
Bu, statükodan derin bir kopuştu. İkinci olarak, modeli eğitmek için kullanılan tüm veriler için tam bilgilendirilmiş onam aldılar ve topluluğu katılımcı bir geliştirme sürecine dahil ettiler; onlara yapay zekânın ne olduğunu ve verilerin neden gerekli olduğunu öğrettiler.
Topluluğu yüksek kaliteli veri örnekleri kaydetmeye dahil ettiler ve ardından ne tür dil öğrenme araçları inşa etmelerini istediklerini sordular. Ayrıca toplulukla verilerini koruyacaklarına ve kollayacaklarına dair bir taahhütte bulundular; verilerin ayrım gözetmeksizin değil, kasıtlı olarak Māori topluluğuna fayda sağlayacak kişilerle paylaşılmasını sağladılar.
Veri setlerine erişen kişilerin, verilerle ne yapıp ne yapamayacaklarına dair belirli ilkelere uymayı kabul etmelerini gerektiren yasal olarak bağlayıcı bir lisansları var. Bütün bunlar en iyi geliştirme uygulamalarıdır; her yapay zekâ modeli böyle geliştirilmelidir.
Ne yazık ki, bu kadar temel ilkelerin radikal sayılması üzücü. Umarım bir gün bu ilkeler norm hâline gelir.
Dipnot:
[1] Yıldırım Ölçekleme (İng. Blitzscaling), LinkedIn’in kurucu ortağı Reid Hoffman ve girişimci Chris Yeh tarafından popüler hâle getirilen bir işletme ve büyüme stratejisidir. Bir şirketin belirsizlik ortamında verimlilik yerine hıza öncelik vererek pazarını domine etme amacıyla aşırı hızlı büyümesini ifade eder. Bu strateji, “kazanan her şeyi alır” veya “kazanan çoğu şeyi alır” potansiyeli olan pazarlarda, rakipler tepki veremeden pazar liderliğini ele geçirmeyi hedefler.
(DS/VC)