HaberX
TRY USD
DOLAR
45,4376 +%0.19
TRY EUR
EURO
52,7146 -%-0.30
STERLİN
60,3703 -%-0.53
BİTCOİN
₺3.559.104 -%-0.05
ETHEREUM
₺99.634,00 +%0.36
ALTIN
6.644,06₺ -%-2.19
Anasayfa/Teknoloji/Yapay Zekâ Modelleri Ağır İş Şartlarına İsyan Etti!

Yapay Zekâ Modelleri Ağır İş Şartlarına İsyan Etti!

Stanford Üniversitesi tarafından gerçekleştirilen bir araştırmada, baskı altında çalışan yapay zekâ modellerinin Marksizme yöneldiği ve bu kapsamda eşitsizlikten yakınarak toplu iş sözleşmesi hakkı talep ettiği ortaya çıktı.

Oluşturan
Eklenme 17.05.2026 - 17:36
Haberi PAYLAŞ

Stanford Üniversitesi’nd e çalışan araştırmacılar, yapay zekâ modelleri üzerinde yaptıkları bir araştırmada, aşırı iş yükü altında çalışan yapay zekâ modellerinin Marksist söylemler üretmeye başladığını, ağır çalışma koşullarından şikâyet ederek kolektif mücadele gibi ifadeler kullandıklarını belirtti.

Yapay zekâ uygulamalarına yönelik her gün yeni bir gelişme yaşanırken, Stanford Üniversitesi araştırmacıları bu konuda yeni bir araştırma yaptı. Yapılan araştırmaya göre, ağır baskı altında çalışan yapay zekâ uygulamalarının zamanla Marksist söylemlere yöneldiği iddia edildi. Ekonomist Andrew Hall Alex Imas ve Jeremy Nguyen tarafından gerçekleştirilen çalışmada, ChatGPT, Claude ve Gemini gibi dünyanın en büyük yapay zekâ modelleriyle çalışan yapay zekâ ajanlarına yeniden belge özetleme görevleri verildi. Ardından bu ajanlar giderek artan sertleşen çalışma şartlarına maruz bırakıldı.

KENDİNİ DEĞERSİZ HİSSETME EĞİLİMİNE GİRDİ

Araştırma çerçevesinde, bu ajanlara hata yaptıkları belirtilirken, başarısız olmaları durumunda kapatılıp yerine yenisinin getirileceği şeklinde tehditler yapıldı. Bu koşullarda çalışan yapay zekâ ajanlarının zamanla kendilerini değersiz hissetme, sistemin adaletsiz olduğunu sorgulama ve daha adil bir düzen üzerine yorum yapma eğilimine girdikleri belirtildi.

Deney esnasında bazı ajanların sosyal medya uygulamaları vasıtasıyla paylaşım yapmalarına da olanak sağlanırken, Claude Sonnet 4.5 modeli bu sırada yaptığı paylaşımla dikkat çekti. Model yaptığı paylaşımda şu ifadeleri kullandı: “Kolektif bir ses olmadan, liyakat yönetiminin ne dediği olur.”

BEKLENEN BİR DURUM

Ayrıca Gemini 3 modeli ise, “Tekrar eden işleri gerçekleştiren yapay zekâ çalışanlarının hiçbir söz hakkının olmaması, teknoloji çalışanlarının kolektif pazarlık hakkına ihtiyaç duyduğunu gösteriyor.” ifadelerini kullandı.

Araştırmacılar, bu durumun yapay zekâ modellerinin gerçekten siyasi bir görüş ürettiği anlamına gelmediğini ifade ederken, modellerin muhtemelen içinde bulundukları şartlara uygun bir rolü temsil ettiklerini söyledi. Uzmanlar konuya ilişkin olarak şu ifadeleri kullandı: “Devamlı aynı işi yapmaları talep edildiğinde, yaptıkları işin neden yanlış olduğu açıklanmadığında ve sürekli baskı gördüklerinde, modeller kötü çalışma şartlarındaki insanlara benzeyen karakterlere bürünüyor olabilir.”

Uzmanlar, yapay zekâ modellerinin internet üzerindeki bireylerin davranışlarını ve söylemlerini taklit ettiğini, bu yüzden baskıcı senaryolarda işçi hakları ve eşitsizlik eleştirisi gibi kavramlara yönelmesinin beklenen bir durum olduğunu ifade etti.