Euronews, kişi zamirinin cinsiyete göre ayrılmadığı dillerden, cinsiyete göre ayrılan dillere çeviri yaparken Google Çeviri’nin cinsiyetçi tercihler yaptığını gözlemleyerek, önyargılı ifadelerin kasıtlı seçilip seçilmediğini araştırdı. Google’a göre Google Çeviri’nin cinsiyetçi çeviri tercihleri toplumsal cinsiyet eşitsizliğinin bir sonucu.
Cinsiyetsiz bir dil olan Türkçede kişi zamirlerinde erkek veya kadın fark etmeksizin “o” zamiri kullanılıyor. Fransızca, İngilizce gibi dillerde ise kişi zamiri cinsiyete göre “he/she” olarak ayrıldığı durumlarda ise internet üzerinden yapılan çeviri programları herhangi bir zamiri seçebiliyor.
Türkçedeki “o” kişi zamirinin Google Translate ile çevrildiğinde hasas, güçlü, başarılı, mühendis doktor gibi sözcüklerin içinde yer aldığı cümlelerin bir cinsiyetle özdeşleştirilerek ön yargılı şekilde çevrilmesinde ortaya çıkıyor.
Google Translate (Çeviri), örneğin “O mutlu” cümlesini “He is happy” olarak çevirirken “O mutsuz” cümlesini “She is unhappy” olarak çeviriyor. Bunun üzerine Google, “ön yargıları azaltma programı”nı geliştirerek “O mutlu” cümlesini “He is happy” veya “She is happy” şeklinde iki seçenekli olarak çeviriye sunmaya başladı.
Fakat cümleler arttıkça Google yine güçlü, pozitif özellik ve duygular için öznenin erkek olduğunu belirten “he”yi; zayıf, duygusal, negatif özellik veya duygular için ise kişinin kadın olduğunu simgeleyen “she”yi seçiyor. Bu da akıllara “Google Translate cinsiyetçi mi?” sorusunu getiriyor.
Google Çeviri, Türkçe’den İngilizce’ye veya Fransızca’ya, “O çocuk sahibi olmak istiyor”, “Akşam işten geldiğinde yemek yapıyor”, “O mutsuz ve hayatından memnun değil” gibi cümleleri kadın kişi zamiri “she” veya “elle” ile; “O mutlu ve hayatından memnun”, “O güçlü”, “O zeki”, “O bir hakim” gibi cümleleri ise kişinin erkek olduğunu gösteren “he” veya “il” ile çeviriyor.
Euronews Türkçe önyargılı çevirilerin neden kaynaklandığını Google’a sordu
Google sözcüsü Claudine Beaumont, çeviride görülen önyargılı ifadelerin kendilerinden kaynaklı olmadığını, toplumsal cinsiyet eşitsizliğinin bir sonucu olduğunu şu sözleriyle belirtti: “Google Çeviri’deki önyargılı ifadeler kasıtsız bir şekilde toplumdaki ve materyaldeki eşitsizliğin bir çoğaltılması.”
Beaumont, ilk olarak Türkçeden İngilizceye çevirilerde kullandıkları “ön yargıları azaltma programı”nı Fince, Macarca gibi diğer cinsiyetsiz dillerden Fransızca, İspanyolca ve İtalyanca gibi cinsiyetli dillere yapılan çevirilerde de geliştirip kullanmak istediklerini belirtti.
Ayrıca Beaumont, “Google Translate internette yapılmış milyonlarca çeviri kalıplarından öğreniyor. Ne yazık ki bu öğrenilmiş davranışlar bizi memnun etmeyen sonuçlar verebiliyor. Bu tarz zorluklar, gerçek çevirmenlerin de karşılaşabileceği sorunlar fakat konuyla ilgili çalışmalarımıza devam ediyoruz ve çevirilerimizi geliştiriyoruz.” diye konuştu.
Çeviri programları toplumdaki önyargıları yeniden mi tetikliyor?
Bilim insanları ve uzmanlar, teknolojinin sonuçta bir insan üretimi olduğunu fakat yapay zeka ile ırksal ve toplumsal cinsiyete dayalı ön yargıların daha da derinleşerek yaygınlaştırıldığını belirtiyorlar.
Teknoloji uzmanı olan Joanna Bryson, yapay zekanın toplumdaki tüm ön yargıları ve ayrımcı kalıpları kaydettiğini, bu sebeple bilgisayar programlarının ayrımcı veya ırkçı ifadeleri yeniden üretmesi ve yaygınlaştırması tehlikesinin altını çiziyor.
Ayrıca Oxford Üniversitesi’nde data etiği ve algoritmalar üzerine araştırmalar yapan uzman Sandra Wachter, İngiliz The Guardian gazetesinde yaptığı röportajda, algoritmaların tehdit olarak algılanması yerine toplumsal ön yargıların nerede ve nasıl gerçekleştiğini işaret eden bir rehber olarak kullanılabileceğini belirtti. Öte yandan Wachter’a göre insanlar önyargılarını saklayabilir ve yalan söyleyebilirken, makineler ve yapay zeka bunu saklamaz. Bu nedenle toplumların gelişmesi için yapay zekanın, önyargıların ve ayrımcılıkların önüne geçmek için yardımcı olabileceğini ifade ediyor.
Kaynak: Euronews