Bağımsız Gazetecilik Platformu
Platform for Independent Journalism
Anasayfa / ERKAN SAKA / Algoritma endişeleri yaymanın dayanılmaz hafifliği
23 Ekim 2018

Algoritma endişeleri yaymanın dayanılmaz hafifliği

İronik bir şekilde bot’ların algoritmaları insansı nitelikler kazandıkça davranış kalıpları daha da belirlenemez hâle gelebiliyor

                                                                                                                                                     
Oya Morva ile birlikte editörlüğünü yaptığımız “kolektif zekâ” üzerine kitap geçtiğimiz günlerde Kalkedon Yayınları tarafından yayınlandı. Kitap için kaleme aldığım kısa yazının özetini buraya almak istedim. Daha teorik ve muhtemelen sıkıcı bulacağınız versiyonu okumak da isteyebilirsiniz, tabii.
 
Başta sosyal medya platformları olmak üzere dijital politikaların ve içeriklerin şekillenmesinde ve tüketiminde algoritmalar hayatî bir rol oynuyor. Özellikle politik sonuçları ve kişisel veriyle ilişkisi bağlamında son bir iki yıldır bu hayatî rol daha endişeyle karşılanır oldu. Yazının başlığından yola çıkarak bu endişeleri reddedeceğim düşünülebilir. Ancak yapmak istediğim algoritmaları genel geçer bir algoritma paniği yerine daha nesnel bir bağlamda değerlendirmek. Bugünlerde algoritma korkusu yaymak bir sosyal medya şöhreti getirebiliyor ama içine girdiğimiz düzeni anlamaya yetmiyor. Örneğin “Occupy” hareketlerinden Gezi Protestolarına kadar sosyal medyanın oynadığı rolü anlatarak epey prim yapıp son kitabında tamamen ters bir konumlanma alan ABD kökenli bir akademisyen şimdi de bir algoritma paniği yaymakla meşgul. Ama nadiren Twitter dili ötesinde izleyicilerine bilgi sunuyor.
 
Son yıllarda sosyal bilimciler ve iletişimciler eleştirel algoritma literatürü diye adlandırılabilecek bir alan yarattı. En önemli bulgulardan biri algoritmaların yaratımında alınan kararların subjektifliğinin epey belirleyici oluşu. Algoritmalar büyük veriyi düzenlerken eşitsizlik kalıplarını daha görünür hâle getirebileceği gibi kullanıcıları sayısallaştırırken onları görünmez kılıp eşitsizlikleri doğallaştırabilir de. Bu yüzden bazı araştırmacılar algoritma inşasında şeffaflık ve denetleme talebinde bulunuyor. Çoğu durumda şirket sırrı olan algoritma kodlarına dair bir şeffaflık olmadan yapılan birçok analiz spekülatif oluyor – büyük ölçüde doğruluk içerse de. Bazı akademisyenler algoritmaların insanların hayatlarını kontrol edici bir güce ulaştığını iddia ederken çoğu akademisyen algoritmik kullanımın tek bir mantığı olmadığına dikkat çekiyor. Kurumlar sürekli olarak yeni algoritmalar deniyor, geliştiriyor ve varolanı da terkediyorlar. O yüzden tekil bir Facebook, Twitter ya da Google algoritması eleştirisi yapmak da yanıltıcı olabilir.
 
Chatbot’lar üzerinden yapılmış bazı çalışmalar da genel geçer çıkarım yapmanın zorluğuna işaret ediyor. Algoritmalara insan müdahaleleri yüzünden tek tip bir sonuç çıkması imkânsız gibidir. Hattâ bu yüzden beklenmedik sonuçlar çıkma ihtimalleri yükselir. İronik bir şekilde bot’ların algoritmaları insansı nitelikler kazandıkça davranış kalıpları daha da belirlenemez hâle -- olumlu ya da olumsuz -- gelebiliyormuş. Aynı durum siyasî botlar için de geçerli. Sosyal medya üzerinden işlev gören algoritmalara sahip siyasî botlar kamuoyunu birçok alanda manipüle etmeye çalışırlar. Ancak bileşkeler arttıkça artan fail sayısı sonuç belirlemeyi de kontrol edilebilirliği de zorlaştırabilir. Bazı araştırmacılar Twitter botları üzerinden yaptıkları deney sonucunda ancak önemli miktarda sosyal, zamansal ve maddî sermaye olması durumunda kamuoyunun manipülasyonunun mümkün olabileceğini iddia etmiştir. Araştırmacılar manipülasyon olamaz demiyor ve olduğuna dair örnekler de veriyor ancak istenen sonuçların çıkması her zaman mümkün olmuyor.
 
Algoritmalar artık gündelik hayatımızın parçası olmuş durumda. Ama algoritma yaratımı ne bitmiş durumda, ne de sonuçları kesin olarak belirlenebilmiş durumda. Çoğu durumda hayatımızı kolaylaştırıp bizi gerçekten de daha verimli hâle getirebiliyorlar. O yüzden bir moral panik havasına kapılmadan beyin fırtınasına devam etmeli…
 

sakaerka@gmail.com

Paylaş

Twitterda Paylaş Facebookda Paylaş Google Plusda Paylaş
© P24Blog'da yer alan bütün yazılar teliflidir ve yayın hakkı P24Blog'a aittir. İzin alınmadan ve kaynak gösterilmeden kullanılamaz.