Yapay zeka tarafsız değil: Peki kimin tarafında?
Yapay zeka hayatımızın her alanına nüfuz ederken, etik sorular da her zamankinden daha kritik hale geliyor. AI Ethics Lab kurucusu Cansu Canca, yapay zeka sistemlerinde görünmeyen riskleri, dezavantajlı grupların nasıl dışlandığını ve etik tasarımının neden işin en başında başlaması gerektiğini anlatıyor.
Yapay Zeka, Etik, Ahlak, Felsefe, AI, Chat GPT,
22554
post-template-default,single,single-post,postid-22554,single-format-standard,qode-social-login-1.1.3,qode-restaurant-1.1.1,stockholm-core-1.2.1,select-child-theme-ver-1.1,select-theme-ver-5.2.1,ajax_fade,page_not_loaded,wpb-js-composer js-comp-ver-6.1,vc_responsive
Title Image
Yapay Zeka Etik

Yapay zeka tarafsız değil: Peki kimin tarafında?

Yapay zeka hayatımızın her alanına nüfuz ederken, etik sorular da her zamankinden daha kritik hale geliyor. AI Ethics Lab kurucusu Cansu Canca, yapay zeka sistemlerinde görünmeyen riskleri, dezavantajlı grupların nasıl dışlandığını ve etik tasarımının neden işin en başında başlaması gerektiğini anlatıyor.
Üretken yapay zeka çok büyük bir hızla hayatımıza girdi. Şu anda dijital dünyada yapay zekanın herhangi bir uygulamasıyla karşılaşmadan bir gün geçirmek neredeyse imkansız. Bazen bir pazarlama e-postasında, bazen bir sağlık uygulamasında, bazen sosyal medyada karşımıza çıkıyor.
Peki, bu yapay zeka uygulamaları etik kurallara ne kadar uyuyor? Uygulama geliştiriciler, özellikle geliştirme aşamasında toplumun dezavantajlı kesimlerine yönelik verileri de dikkate alıyor mu, yoksa bu kesimler yok mu sayılıyor? AI Ethics Lab’in kurucusu Cansu Canca, sorularımızı yanıtladı.


Bu röportaj Geleceği Konuşalım Podcast kanalında yayınlanmıştır.


-“AI Ethics” yani yapay zeka etiği kavramı aslında dünya genelinde konuşuluyor. Bu kavramı biraz açabilir misiniz? Yapay zeka etiği nedir ve neden böyle bir kavrama ihtiyaç duyuldu?
Yapay zeka etiğini anlamak için önce şu soruyu sormak gerekiyor: Yapay zeka sistemleri ne yapar? Bu sistemlerin amacı, insanlara karar verme süreçlerinde yardımcı olmaktır. Örneğin, bir hastaya hangi tedavi uygun olur, ya da kaynakları en verimli nasıl kullanabiliriz gibi sorulara yanıt arar. Bu sistemler insanlara fayda sağlamak için tasarlanır. Ancak “fayda” kavramı devreye girdiği anda etik meselelerle karşılaşırız. Kime faydalı? Ne kadar faydalı? Fayda ile zarar nasıl dengelenir? Bunlar etik felsefenin temel sorularıdır. Genellikle felsefe çok teorik, hayattan kopuk gibi algılanır ama aslında değil. Ben sağlık alanından geliyorum. Örneğin, COVID döneminde verilen kararların birçoğunda etik uzmanları görev aldı. Aşıların kimlere önce verileceği, sokağa çıkma kısıtlamaları gibi kararlar doğrudan etikle ilgiliydi.
-Aslında yapay zekaya “Şu bölgenin risk oranını hesapla” dediğimizde kendimizi bir etik meselelerin içinde buluyoruz.
Kesinlikle. Çünkü “risk” ne demek? Veriler nasıl toplanmış? Ön yargılar bu verilerin içinde mi? Yapay zekaya eğittiğimiz örneklerde hangi insan yargıları etkili olmuş?
Bütün bunlar etik konular. Yapay zeka etiği dediğimizde aslında sistemlerin sadece yasal olmasını değil, aynı zamanda insanlara ve topluma faydalı olmasını, zararları en aza indirmesini, bireylerin kendi hayatlarıyla ilgili karar verme haklarını korumasını ve toplumsal adalete katkıda bulunmasını kastediyoruz.
-Etik yaklaşımın, sistem daha gelişitirilmesi aşamasında masada olması gerekiyor.
Evet, bu çok önemli bir nokta. Çünkü genelde şu oluyor: Sistem geliştiriliyor, inovasyon yapılıyor, piyasaya sürülmeden hemen önce “etik mi bu?” sorusu soruluyor.
Ama o noktada bu soruyu sormak çok geç. Çünkü o zaman verileri baştan gözden geçirmek, modeli yeniden analiz etmek, hataları test etmek gerekiyor. Ve ne yazık ki genelde bu analizlerde problem çıkıyor. Bu da sistemi piyasaya sürmeyi geciktiriyor. Aslında en başta şu sorular sorulmalı:
“Bu yapay zeka sistemine gerçekten ihtiyacımız var mı?”
“Bu sistemi kullanabilecek kapasitemiz var mı?”
“Verileri güvenli şekilde analiz edebilecek miyiz?”
“Sistem kullanıma geçtikten sonra da takip edebilecek miyiz?”
Bu sorulara “evet” cevabı verebiliyorsak, ancak o zaman geliştirme sürecine geçilmesi doğru olur.
– Biraz somutlaştıralım. Diyelim ki finans sektöründe “kime ne kadar kredi verilmeli?” sorusunu yanıtlamak istiyoruz. Yapay zeka uygulamaları bu kararı verirken nasıl etik sorunlar doğurabilir?
Bu, çok kullanılan bir alan. Ama bu sistemlerde hangi verilerin dikkate alındığı çok önemli.
Mesela ben bankacılıkla çok ilgilenmiyorsam, paramı evde tutuyorsam ama harcamalarımı düzgün yapıyorsam, borca girmiyorsam… Bu veriler sistemde yer almayabilir. Yani ne kadar dijital yaşarsanız, sistem sizi o kadar görebilir. Dijital yaşamayanlar ise sistem için görünmezdir.
Bu nedenle sistem bazen “senin gibiler genelde borçlarını ödemiyor” diyerek kişiye kredi vermeyebilir. Kadın, küçük şehirde yaşıyor, eğitimi sınırlı… gibi etiketlerle sistem ön yargılı davranabilir. Bu durumda kişi ne kadar sorumlu olursa olsun, sistem onu “riskli” olarak etiketler ve krediye erişemez. Üstelik böyle bir fırsatın varlığından bile haberdar olmayabilir. Çünkü sistem onu reklam hedeflemesine bile dahil etmez.
-Aslında sistem verdiği kararla sizi hem dışlıyor hem de farkında bile olmuyorsunuz.
Evet, bu sistemler görünmeyen, sıkıcı ama hayatı çok etkileyen alanlarda işliyor. Konu Robocop ya da Terminator değil, çok daha sade ama etkili sistemler.
Ve bu nedenle yapay zekanın etik yönü büyük önem taşıyor.
-Sizin yapay zeka etiği üzerine geliştirdiğiniz “Pi Model” bu süreci etik olarak nasıl inceliyor? Geliştiricilere ne tür katkılar sunuyorsunuz?
“Pi Model” ile yapay zeka sistemlerini geliştirirken etik değerlendirmeyi baştan entegre ediyoruz. Geliştirme aşamasında etik riskleri tanımlıyoruz, etkilenebilecek grupları analiz ediyoruz ve ortaya çıkan çıktıları nasıl iyileştirebileceğimizi öneriyoruz.
Cansu Cana AI Ethics Lab

Cansu Canca Kimdir?

-Çalışmalarınızın sonunda yapay zeka uygulamaları ile verilen etik olmayan kararlar en çok hangi kesimleri etkiliyor? 
Bu konuda doğrudan gözlem yapabilmek için bazen sistemin derinlerine inmeye gerek bile kalmıyor. Biraz veri okuryazarlığınız varsa, toplumsal düzeni ve bu düzenin veriyle ilişkisini incelediğinizde sorunlu alanlar kendini belli ediyor. Mesela tıbbi araştırmalarda klinik deneyler genellikle belirli bir grupta — çoğunlukla 18-35 yaş arasındaki beyaz erkek bireyler — üzerinde yapılır. Bu durum kadınlar, çocuklar ve farklı etnik gruplar için önemli sonuçlar doğurur. Çünkü bu gruplar, ilk etapta araştırma kapsamında yer almadıkları için, örneğin ilaç dozajları genellikle kadınlar için sonradan yeniden ayarlanmak zorunda kalınır. İlk başta kadınlar için yanlış dozlarla başlanır, bu da sağlık açısından ciddi riskler yaratır.
Şimdi biz bu hataları biliyorsak, yapay zeka sistemleri tasarlanırken aynı hataların yapılmaması gerekir. Eğer veri geçmişte ön yargılı, eksik ya da taraflıysa, bu yapay zekanın da aynı önyargıları sürdürmesine sebep olur. Şimdi bunu biliyorsak, şuradan ikinci adıma geçmemiz çok kolay. Biz bu veriyi alıyoruz, yapay zekaya veriyoruz ve diyoruz ki: “Bu veriyi kullanarak bana tahminlerde bulun.” Ama o tahminler, mevcut problemi doğrudan devam ettiren tahminler oluyor. Yine kadınların verisi işin içinde olmayacak, çocukların verisi olmayacak. Sistem sadece elinde ne varsa ona göre çalışacak.
Bir örnek daha vereyim, yine sağlık alanından. Bu birçok araştırmayla da gösterilmiş bir şey: Doktorlar genel olarak kadınların acı eşiğini daha yüksek kabul ediyor. Yani ben ve bir erkek aynı ağrıyla doktora gidiyorsak, erkeğe hemen ağrı kesici verilirken, bana belki ikinci başvuru sonrasında veriliyor. Şimdi bu durum veri haline gelmişse, doktor notları da sistemin içine konmuşsa, yapay zeka şöyle diyor: “Kadınlarda tedaviye gerek yok, çünkü onlarda bir sorun görünmüyor.”
Ama aslında sistem hiçbir şey bilmiyor; sadece veriye bakarak “kadınlar acıdan şikayet etmiyor” sonucuna varıyor.
-Veri eksikse, sistem de yanlış karar veriyor.
Aynen öyle. Ama bu düzeltilemez bir şey değil. Burada yapılacak şey şu: Sistemi elimizdeki bilgilerle toparlamaya çalışacağız. Diyeceğiz ki, bu veri eksik, sağlık bilgileriyle destekleyeceğiz, başka veriler koyacağız, ortalamaya çalışacağız. Bazen bunu yapmak gerçekten çok zor, ama sentetik veriyle ya da ek veriyle toparlayabiliyoruz. Sonuçta yapmaya çalıştığımız şey şu: Sisteme “senin bilmediğin şeyler var, bu veride görmediğin insanlar var” demek. Onları da sana ekleyelim, diyerek sisteme bu boşlukları göstermeye çalışmak. Ve bu, sadece kadınlar için değil; sağlıkta olabilir, finans alanında olabilir, eğitimde, iş bulmada olabilir… Toplumda hangi grup dezavantajlıysa, bu sistemler onları daha da dezavantajlı hale getirme riski taşıyor.
Mesela ABD’de siyahlarla beyazlar arasında çok büyük bir fark var. Yine sağlık alanından örnek vereyim. Karmaşık, nadir hastalıklar dediğimiz “rare complex diseases” konusunda hastaneye başvuran hastalar var. Doktorlar bu hastalar arasında kime öncelikli tedavi verileceğini belirlemeye çalışıyor. Bu çok zor bir karar. Yapay zekayla desteklenen bir karar verme sistemi kuruluyor. Ancak şöyle bir şey var: Bu sistemde doğrudan ırk ya da cinsiyet verisi kullanılmıyor. Ama kullandıkları başka bir veri var: Kimler daha fazla sağlık harcaması yapmış? Çünkü araştırmacılar şunu düşünüyor: Ne kadar sağlık harcaması yaptıysan, o kadar hastasındır. Ama ya hastaneye gitme imkânın yoksa? Yani sen ne kadar hasta olursan ol, doktora gidemiyorsan, veride hasta görünmüyorsun. Dolayısıyla sistem de seni hasta olarak algılamıyor.
Bu sistem kullanıldığında, aynı derecede hasta olan iki kişiden, beyaz kişilere her zaman öncelik veriliyor. Çünkü siyah bireyler, doktora gidememiş; dolayısıyla sistem onları hasta olarak görmüyor. Ve bu sistemi düzelttiğinizde ne oluyor biliyor musunuz? Siyah hastalar için hizmet alma oranı neredeyse iki katına çıkıyor. Yani, yanlış kurulan bir sistem yüzünden bir insan ölebilir.
Daha bu sistemlerin önemini başka nasıl anlatabilirim bilmiyorum.
– Finans sektöründen. Daha düşük gelir grubundaki bireyler, orta gelir seviyesine çıkmak için gerekli finansal kaynaklara erişemiyorsa, eğer yapay zeka uygulamaları mevcut veriye dayalı çalışıyorsa,  birey için aynı döngü tekrar eder . Adeta bir kast sistemi oluşabilir. Eski bir şarkıda dediği gibi ‘işçisin sen işçi kal’ ? 
Aynen öyle. Çünkü sistemin sizi en iyi tahmin edebilmesi için, sizin hiç değişmemeniz gerekiyor. Sizin ve sizin gibilerin, olduğu yerde kalması tercih ediliyor. Sistem değişimi sevmiyor çünkü tahmin hatası yaratıyor. Tabii ki bu bir bilinçli karar değil, yapay zeka sonuçta matematiksel modellerle çalışıyor. İşte tam da bu yüzden etik çerçeve çok önemli. Ben bankalarla, finansal kuruluşlarla çok çalışıyorum. Bu sadece “kredi alabilir mi?” meselesi değil. Kimlere reklam gösterelim, kimlere promosyon gönderelim gibi konularda da aynı durum yaşanıyor. Sistem şunu diyebiliyor: “Bu kişiler üniversiteye gitmemiş, iş kurmamış; o zaman onlara üniversite kredisi ya da girişim kredisi tanıtımı yapmamıza gerek yok.” Bu durumda o kişi, böyle bir fırsatın varlığından bile haberdar olmuyor. Yani sistem sizin imkanlarınızı baştan kısıtlıyor.
Aynı durum işe alımda da yaşanıyor. Artık hiçbirimiz gazetede iş ilanı aramıyoruz. Herkes internette, iş platformlarında bakıyor. Ama hangi ilanların size gösterileceğini belirleyen sistem yine yapay zeka. Ve sistem sizi uygun görmüyorsa, o ilana asla ulaşamıyorsunuz. Biz arama motorlarının bile ikinci sayfasına nadiren bakıyoruz.  Bilgi sıralaması inanılmaz önemli. Sistem size işi göstermiyor, işveren de sizi görmüyor. Dolayısıyla herkes kendi bölgesinde çabalıyor, ama çıkış yok. Kast sistemi gibi bir şey bu. Ve ben hep şöyle düşünüyorum: Eğer bu sistemleri dikkatli kurmazsak, üzerimize bir balık ağı atılmış gibi olacak. Kımıldayamayacağız, olduğumuz yerde kalacağız.
– Yapay zeka etiği uygulama geliştiricileri ve kullanıcılarının gündemine girdi mi?  Farkındalık oluşmaya başladı mı?
Şöyle cevap vereyim, ben bu konuda çalışmaya 2017’de başladım. 2016’dan itibaren üzerinde çalışmaya başlamam, 2017’de sadece bu konuyu çalışmaya başlamamla oldu. İlk başladığım zaman AI Ethics’leri kurmamın sebebi, çünkü ne yurt dışında, ne akademide, ne de özel şirketlerde AI Ethics adı altında, yapay zeka adı altında bir şey zaten yapılmıyordu. Yapay zeka etiği ve sorumlu yapay zeka, responsible AI, AI ethics diyoruz biz buna. Trustworthy AI de deniyor, güvenilir AI, bu benim çok tercih etmediğim bir terim. Ama bunların artık gerçekten tam deme gelmesi, şirketlerin buna yatırım yapması, akademinin buna yatırım yapması, geçen sene artık en yüksek noktasına geldi diyebilirim. Ama umutlu olun diyemiyorum. Şundan dolayı diyemiyorum: Çünkü karşılaştırdığımız şey kendi içimizden, kendi kendimizle yarışıyorsak ne güzel. Nerede, nereye geldik? Ama yarıştığımız şey aslında yapay zekanın gelişme hızı ve kullanılma hızı. Şimdi buna yetişmeye çalışıyorsak eğer, yapay zekaya yapılan yatırımla tabi oranlı olarak olması gerekir. Oranlı bir şekilde etik kısmına yatırım yapılıyor mu? Hayır. Yapay zekaya verilen önemle etiğe verilen önem oranlı mı? O da oranlı değil. Dolayısıyla tabii ki ben ve benim gibiler bu sistemlerin doğru yapılmasında ve doğru kullanılmasında çok çok çok büyük farklar yaratabiliyoruz. Ama etki alanımız ne yazık ki çok çok çok sınırlı. Çünkü doğru yerlerde bizim olmamız için yeterince çaba sarf edilmiyor.
– Dünyada yapay zeka konusunda büyük oyuncular var. Mesela Google bunlardan biri. Bu dev şirketler ne yapıyorlar? AI Ethics konusunda dertleniyorlar mı?
Evet, şöyle dertleniyorlar. İnsanları işi alıyorlar, uzmanları gruplara yerleştiriyorlar. Ama ben size kendi görüşümü söyleyeyim. Ben de Google’ın, Meta’nın, özellikle Meta’nın – Instagram falan hepsinin dahil olduğu, WhatsApp’ın sahibi olan Meta’nın – içinde dertlenen yapay zeka etiği gruplarını gördüğümde ben de bir değişik hissediyorum diyeyim size.  En büyük teknoloji sistemleri, işte 5 büyük, 6 büyük diye sayarsak, bu en büyük şirketler – teknoloji şirketleri – tabii ki oyunu değiştirebilecek güce sahipler. Zaten yapay zeka alanında oyunu onlar değiştiriyor. Etik alanında da oyunu değiştirebilecek güce sahipler. Ama bunu istemiyorlar. Yani kendimizi kandırmayalım. İsteseler yaparlar. Bunun için geçerli sebepleri var mı? Bunun için sebepleri var. Geçerli olup olmadığı tartışılır. Yani onların söylediği şey, her zaman şirketler arası bir yarış var. Her zaman ülkeler arası bir yarış var. İyi bir sistem yapacaksanız, siz de kendinizi iyi görüyorsanız en önde olmayı istersiniz. En azından kötü aktörleri engelleyebilmek için. Bunların hepsi önem verilmesi gereken sebepler. Ama geçerli, gerçekten sonuca götüren sebepler mi? O konuda ben çok ikna olamıyorum. Çünkü işin etik kısmını işin içine katmadığımızda olanları, sonuçları her seferinde görüyoruz.
Yapay zeka dediğimizde de olay sadece şu anda kullandığımız ChatGPT, LLM’ler değil. Büyük dil modelleri değil. Yapay zeka ile ilişkimiz olmayan bir şey yok. Haberimiz olmadığında bile sürekli değerlendiriliyoruz arkada. Dolayısıyla bu kadar önemliyken geri planda kalması ve de sonuçlarını da gördük – dediğim gibi, dünyanın birçok yerinde seçimler etkilendi. Dünyanın birçok yerinde yanlış bilgiden dolayı sağlık sistemleri etkilendi. Birçok gruba yanlış fırsatlar tanındı. Bunları gördük. Zaten bu skandallarla ilerleyen bir şey etik ne yazık ki ve skandallardan dolayı zaten buraya kadar gelebildi, önem kazanabildi. Sigorta sistemlerinin yaptığı hatalarla verdiği büyük zararları gördük. Ama hala işin etik konusuna geldiğimizde “Bir kişi yeter mi?” diyorlar mesela. Ya da işte “Üç ayda bir doküman yazsak, yayınlasak, biraz da PR yapsak olmaz mı?” Olmaz. Çünkü yapmaya çalıştığınız şey amaçlı.
– Peki bir şirketle anlaşma yaptığınızda, şirket açısından nasıl bir süreç yürüyor?
Şirketlerle ilişkimizde iki yerden başlayabiliyoruz. Biri, ya şirketler bize şununla geliyorlar: “Biz bir model kurduk ya da kurmak istiyoruz.” Belli bir çalışma alanımız var.  Burada da bir yapay zeka için ihtiyaç var. Bunda yaptığımız şey, geliştirmeyi yapan takımla beraber çalışıyoruz. Eğer model önceden yapıldıysa, o zaman hani birazcık dışarıdan araştırma gibi oluyor, içine girip çözmeye çalışıyoruz. Ama yaptığımız şey, modelin doğru model olduğu, doğru verileri kullandığı, sonuçlarının etkilerinin istenen etkiler olduğu, istenmesi gereken etkiler olduğu…
Burada da şunu söylemek lazım: Şirketler şöyle de düşünebiliyorlar, etikle şirketin kar amacı birbiriyle hep çelişiyor. Hep çelişmiyor, genellikle çelişmiyor hatta. Çünkü ben size eğer burada görmediğiniz, sizin bankanızdan fayda sağlayabilecek, sizin müşteriniz olabilecek bir grup var, bunu görmüyorsunuz diyorsam – aslında size bir müşteri grubu getirmiş oluyorum. Bazı durumlarda tabii ki çelişkiler yaşanıyor. O zaman da şirketin uzun süreli amacı, nasıl bir kurumsal karakter yarattığı kısmında bir konuşmamız oluyor. Ama genelde etikçi olarak istediğimiz şey şu zaten: Sizin olabildiğince başarılı olmanız ve doğruyu yapmanız. Çünkü başarısızsanız, ne kadar doğruyu yaparsanız yapın, çok da fazla etkiniz olmayacak dünyaya. Başarılı olmanızı istiyoruz.
Şirketler bize şöyle geliyorlar: “Biz şimdiye kadar ve bundan sonra sık sık yapay zeka modelleri kuracağız ya da satın alacağız ve bunları uygulamaya geçireceğiz.” Dolayısıyla bizim ihtiyacımız olan şey AI Governance, yapay zekayı yönetme sistemi şirketimizin içinde. Bunda da ilk başta şirketin ne kadar hazır olduğunu, ne kadar bununla ilgili şimdiye kadar çalışmaları olduğuna bakıyoruz. Eksikleri değerlendiriyoruz. Acil önem verilmesi gereken yerleri belirliyoruz ve bunlar üzerinde çalışmaya başlıyoruz.
Burada da üç ana alanımız var: People, process, playbook diyoruz buna. Process, yapay zekayı kurmayı düşündüğünüz anda kullandığınız, monitör ettiğiniz, uyguladığınız ve de en sonunda kullanımdan aldığınız döneme kadar nasıl bir hayat döngüsü içinde ilerleyecek kısmını kapsıyor. Bunların hepsinde yazılı, doğru düzgün bir sistemin oturması gerekiyor. Bu sistemin içinde doğru çalışabilmesi için araçlara ve guideline’lara ihtiyacınız var – tool ve guidelines. Bunları yazıyoruz, bu araçları buluyoruz ya da yapıyoruz size, kuruyoruz. Ve buna ek olarak da kim ne işi yapacak? Yani burada bahsettiğimiz şey bir tane yapay zeka etiği sorumlusu olması değil, bir tane kurul kurmanız değil. Çünkü bunlar elbette işinizi yavaşlatacak şeyler. Bunun yerine farklı grupların farklı skillsetlerle eğitilmesi, yani geliştirme uzmanlarına farklı etik eğitimler veriyoruz. Ve de bu etik eğitimler her zaman çok uygulanabilir. Yani gizlilik diyorsak eğer, gizlilik konusunda tam olarak ne yapıyorsunuz? Biz bunları anlatıyoruz ve uygulatıyoruz. En sonuna kadar, en yükseğe çıktığınızda da bir yapay zeka etiği kurulu varsa, bu kurul tam olarak neye, ne şekilde karar vermeli? konuları konuşuluyor. Çünkü birçok insanı bir araya koyup da “Etik konuşun” dediğinizde etik bir sonuç çıkacağının hiçbir garantisi yok.
– Şu ana kadar sistemi genel olarak yapay zeka etiği üzerine konuştuk. Belki başta sormam gereken soruyu şimdi sorayım. Siz nasıl bu alana ilgi duydunuz.  Biraz Cansu Cana’yı tanıyalım.
Ben Boğaziçi Felsefe mezunuyum. Çok güzel bir okul, çok sevdiğim bir bölüm, çok sevdiğim bir okul. İlk önce lisansımı ve yüksek lisansımı Boğaziçi’nde yaptım. Sonra Asya’ya, yüksek lisans araştırması için Japonya’ya gittim. Orada bir 6 ay geçirdim. Arkasından doktoramı Singapur’da yaptım. Orada yine felsefe alanında çalışmaya devam ettim. O sırada, yani doktora tezimi yazarken, çalışma konum etik ve sağlık ve de sağlık politikaları üzerine olduğu için, Dünya Sağlık Örgütü’nde 6 ay doktora çalışması yaptım. Arkasından da Harvard’da 6 ay bir doktora çalışması yaptım. Arkasından Amerika süreci başladı. Harvard’da hukuk fakültesine, doktora sonrası çalışma için geçtim. Bunlarda ben en başından beri, yani lisansımdan beri aslında, uygulamalı etik çalışıyordum. Çünkü benim ilgilendiğim konu şu: Birçok konuda karar vermek zorundayız. Yani “Ben karar vermeyeyim, olacağına varsın” dediğiniz de bir karar. Karar vermeniz gerekiyorsa en faydalı kararı nasıl verebiliriz? Benim için her zaman beni ilgilendiren şey buydu.
Sağlık alanının ilgimi çekmesinin sebebi de sağlığı gerçekten kritik bir alan olması. Eğer siz bir hastaneyle uğraşıyorsanız, o sizin hastaneyle, polisle uğraştığınız günler zorlu zamanlar. Ve burada doğru karar verilmesi çok önemli. Çünkü bu, sizin en doğru karar verme ortamınızın en olmadığı zamanlar. En sıkıntılı, en anksiyete veren, korkutucu ortamlar bunlar aslında. Ve doğru kararın da en önemli olduğu zamanlar.
Doktora sonrasında tekrar Asya’ya döndüm. Hong Kong Üniversitesi’nde, tıp fakültesinde, tıp fakültesinin etik eğitimini ve de uygulamasını düzenledim. Orada çalışırken aslında yapay zeka konusuna kaymaya başladım. Çünkü şunu gördüm: Biz sürekli gerçekten uygulamaya geçmesi gereken etik kararlar veriyoruz – COVID örneğinde verdiğim gibi sağlıkla ilgili birçok karar içinde etik karar barındırıyor. Ama o kadar çok karar veren sistem sağlığa dahil olmaya başladı ki, benim aklımda beliren soru şuydu en başta: Ben doktorun nasıl karar verdiğini biliyorum, hastanın durumunu biliyorum, sağlık sistemini biliyorum ama burada bir sistem var. O sistemin içinde nasıl bir karar ve yargısı var onu bilmiyorum. Dolayısıyla benim etik analizimde büyük bir açık var. Buradan yapay zeka alanına girdim. Ondan sonra yapay zekanın kendisine oturdum, bir süre çalıştım. Çünkü ben, tabii ki etikçi olarak etiğe hakimim. Sağlık çalışırken sağlık alanında çok fazla, direkt sağlıkla ilgili birçok bilgi edinmiştim. Oturup dersler almıştım. Hukuk çalışırken hukuk dersleri almıştım. Bunda da yapay zekayı öğrendim önce. Arkasından da yapay zeka etiği kısmına daha da girdiğiniz zaman, işte bu konuştuğumuz çok da gözle görünür, çok da bariz olmayan ama finans, eğitim, sigorta konuları var.
Daha basit, keyifli konular da var bu arada. Mesela nerelere seyahat edeceksiniz? Sizin nereye seyahat edeceğiniz bile aslında arkada kullanılan yapay zeka sistemlerinin; günde kaç uçak kalkacak, fiyatlandırma nasıl yapılacak, o otellerin hangileri size gösterilecek gibi sistemler üzerinden yürüyor. Yani siz böyle karar verdiğinizi zannetseniz bile, arkada sizin seyahat seçeneklerinizi belirleyen çok daha…
Dolayısıyla bunları çalışmaya başladım. Söylediğim gibi ben 2017’de bunu çalışmaya başladığımda kimsenin ilgi alanında değildi. Onun için AI Ethics Lab’i kurduk. AI Ethics Lab’den sonra, 2018 gibi Facebook-Cambridge Analytica skandalı başladı. Ben zaten bu arada Harvard’a dönmüştüm. Yani “Harvard’a döndüm” derken, AI Ethics Lab hiçbir zaman bir üniversiteye dahil olmadı ama benim kendi çalıştığım gruplarla, mesela Harvard’la AI Ethics Lab’in ortak çalışmaları falan oldu.Arkasından ilgi geldi. Yani bir anda şunu fark etti Amerika ve dünya: “Böyle bir şey var. Kullandığımız sistemler objektif değiller. Matematiksel dediğimiz şeyler sadece sayı değiller. Eğer öyleyse ne yapmamız gerekiyor? Bunu çalışan kim var? Aa kimse yokmuş.” Kimse yok derken tabii ki çok önemli, çok değerli insanlar var ama çok azlardı. Ne yazık ki hala azız. Bunu fark ettiklerinde de tabii devamında benim bulunmam, benim de AI Ethics’i daha iyi bir yere taşıyabilmem, sesini duyurabilmem geldi. Şimdi Fortune 500 şirketleriyle çalışıyoruz, Interpol’le çalışıyorum, Birleşmiş Milletler’le çalışıyorum, Dünya Ekonomik Forumu’yla çalışıyorum… Bunlarla çalışabilmek için öncelikle bir sesinizi duyurabilmeniz gerekiyor. Yaptığınız işin önemini anlatabilmeniz gerekiyor.
– Kritik soruyu sorayım; Felsefe ile yapay zekâ örtüşebilir mi?
Ben kendi grubuma, çalışma arkadaşları alırken ilk önce felsefe doktorası olanları alıyorum. Ondan sonra yapay zekâ, sosyal bilimler – beşeri bilimler – bunları da çalışanları alıyorum. Çünkü aslına bakarsanız olayın en temelinde felsefe yatıyor. Bu da genelde ne yazık ki gözden kaçan bir şey. Yani “Doğrusu nedir?” sorusunu sorduğunuzda, bunu cevap verebilecek tek alan felsefe. Başka bir alan yok. Ama bu cevabı verebilmek için tabii ki biz sosyal bilimlerden yardım almak zorundayız. Onların topladığı veri inanılmaz değerli. Tabii ki bilgisayar mühendisliğinden, tasarım bölümünden yardım almalıyız. Çünkü ne yapabileceğimizi, teknik olarak neyin mümkün olduğunu onlar bize belirliyor. Ama sorunun temeli “ne yapmalıyız?” sorusu. Aynı şekilde bu arada politika ve hukuki düzenlemeler için de bunu yapabilmek için sorunun temeli “ne yapmalıyız?” sorusunun tek cevabı felsefede. Başka hiçbir yerde yok. Yapay zekayı nasıl kullanmalıyız’a geldiğiniz anda felsefeye gelmiş oluyorsunuz.
Ama buna ek olarak şöyle bir şey de var, bunu da unutmamak lazım aslında. Büyük dil modelleri, üretken yapay zeka, agentic AI… Bu sistemler aslında şuna da bizi çok yaklaştırıyorlar: Şu anda konuştuğumuz şey zihin felsefesiyle de çok yakın. Yani bir sistemin dünyayı modellemesi ne demek? Sizin kullandığınız büyük dil modelleri aslında size cevap verirken, çok ilginç bir şekilde – ve bunu ilk fark ettiğimizde hepimiz için çok etkileyici bir sonuç olmuştu bu – bilinç olması gerekiyor mu? Bu yapay zekaya bilinç gelir mi? Gelirse ne zaman gelir? falan gibi konular bir anda konuşulurken aslında dilin ne kadar kuvvetli olduğunu gördük. Yeterince fazla dil verisini verdiğiniz zaman, sistemler dünyayı modelleyebildiler. Modellemek ne demek? ChatGPT ile konuştuğunuz şeyleri düşünün. İşte, “Hangi okullara gidebilirim?” ya da “Hangi okullara gitmek için ne gibi çalışmalar yapabilirim?” Bu soruların cevabını verebilmek için dünyayı biraz anlamak lazım.
Yani insanın okula gitmesi ne demek? Hangi okullar ne demek? Okullar arasındaki karşılaştırmayı yapmak ne demek? Yani bir karşılaştırma nasıl yapılır? Yani bunu anlamak için dünyayı modellemek lazım. Biz sürekli insan olarak dünyayı modelliyoruz. Karşımdakinden beklentim ne olmalı? Ben ne dersem siz ne diyeceksiniz? Bunlar hep dünyayı modellemek. Biz bunu bilinçle yaklaştırırken, aslında sadece yeterli dil verisiyle dünya modelleyebilen sistemler kurabildiğimizi fark ettik. Bu, zihin felsefesi için inanılmaz ilginç bir sonuç. Ve de şimdi agentic AI’ya geçtiğimizde, özellikle de birbirleriyle ilişkisi olacak, birbirini etkileyecek ve birbirini kontrol edecek yapay zeka sistemleri kurmaya başlıyoruz. Bunu yapmak için bu sistemlerin dünyayı nasıl modellemesini istiyoruz? Buraya etiği de yine sokalım. Bu sistemlerin nasıl etik bir düzen içinde çalışması gerektiğini… Ya da Kant mı, Schopenhauer mı, Descartes mı? Hangi agentic AI, hangi felsefi modeli esas almalı?
Benim bir felsefeci olarak en çok istediğim şey şu: İnsanlık olarak şimdiye kadar tek bir felsefi modelde uzlaşamadık, belki de gerçekten tek bir doğru model yok. Ama belki de vardır  ve yapay zeka, onu bulmamıza yardımcı olabilir.

Bu röportaj Geleceği Konuşalım Podcast kanalında yayınlanmıştır. 

 

Edit Medya