iOpenAI, ChatGPT’ye yeni kısıtlamalar getirdi; artık model, sağlık, hukuk ve finans konularında tavsiye veremeyecek ve kullanıcıları uzmanlara yönlendirecek. ChatGPT artık danışman değil, eğitim aracı olarak kullanılacak.
OpenAI, yapay zekâ destekli sohbet uygulaması ChatGPT için yeni kuralları yürürlüğe koydu.
29 Ekim itibarıyla geçerli olan düzenlemeler, ChatGPT’nin artık tıbbi, hukuki ve finansal konularda doğrudan tavsiye veremeyeceğini ortaya koyuyor. Model, bundan sonra “danışman” değil, “eğitim aracı” olarak tanımlanacak ve kullanıcıları gerekli durumlarda doktor, avukat veya mali müşavir gibi uzmanlara yönlendirecek.
'YANLIŞ YÖNLENDİRME RİSKİNİN' AZALMASI BEKLENİYOR
Yeni kurallar, özellikle sağlık, hukuk ve finans alanında kırmızı çizgiler çiziyor. Artık model, ilaç isimleri veya dozaj veremeyecek, dava dilekçesi hazırlayamayacak ve yatırım tavsiyesi sunamayacak. Uzmanlar, bu değişikliğin yanlış yönlendirme riskini azaltacağını ve kullanıcıların gelir, kimlik veya banka bilgilerini paylaşmasının veri güvenliği açısından tehlikeli olduğunu belirtiyor.
EMPATİ KURAMAYACAĞI İÇİN MEN EDİLDİ
Kullanıcı “göğsümde şişlik var” gibi bir belirti girdiğinde, model kanser ihtimalini öne sürebiliyor; ancak bu durum zararsız bir lipom çıkarsa kullanıcı yanıltılmış olabiliyor. Bu nedenle ChatGPT artık empati kuramayacağı ve bireysel riskleri analiz edemeyeceği gerekçesiyle bu tür tavsiyelerden men edildi.
Aynı şekilde, model psikolojik destek veya terapi amaçlı da kullanılamayacak. Etik sınırlar, eğitim ve sanat üretiminde hile amaçlı kullanımı da kapsıyor.
ETİK SINIRLAR VE VERİ GÜVENLİĞİ
Yeni kısıtlamalar etik alanlara da uzanıyor. ChatGPT’nin ödev, sınav veya sanat üretiminde hile amacıyla kullanılmasının hem eğitim etiğine hem de telif haklarına aykırı olduğu hatırlatıldı.
“YARDIMCI, AMA UZMAN DEĞİL”
Yapay zekâya getirilen bu “yeni kırmızı çizgiler”, modelin sınırlarını netleştiriyor.
ChatGPT artık, uzmanların yerini alan bir “danışman” değil; bilgiyi öğretici biçimde özetleyen bir “yardımcı” olarak konumlanıyor.
Uzmanlara göre, bu değişiklik teknolojinin “insan uzmanlığının yerine geçemeyeceği” gerçeğini resmen kabul etmek anlamına geliyor.