Geçen ay Web'de içerik üretmek için motivasyon kalmadığını anlatan
Bakırcı, şimdi de yapay zekanın dalkavukluğunu vurguluyor:
Bu videoda “dalkavuk yapay zekâ” (sycophancy) olgusunu masaya yatırıyorum. Neden bazı modeller doğruyu söylemek yerine bizi memnun etmeyi seçiyor? İnsanların karar ve kanaat işini algoritmalara devrettiği “bilişsel yük boşaltma” çağında bu davranış neden tehlikeli olabilir? RLHF ile kullanıcı beğenisinin optimize edilmesi, onaylama önyargısını nasıl büyütüyor ve sosyal medya algoritmalarındaki pohpohlama döngüsüne nasıl benziyor? Basit örneklerle promptların cevabı nasıl yönlendirdiğini; priming/jailbreak gibi tekniklerin hatalı bir güven duygusunu nasıl güçlendirdiğini gösteriyorum. Ardından, daha sağlıklı kullanım için pratik bir kontrol listesi, daha iyi prompt yazımı ve hesap verilebilirlik odaklı yaklaşım önerileri paylaşıyorum. Kısacası, bilimsel şüpheciliği elden bırakmadan, yapay zekâyı gerçekten işe yarar bir asistana dönüştürmenin yollarını konuşuyoruz.
00:00 Giriş: ChatGPT Size Yalan mı Söylüyor?
02:10 Bilişsel Yük Boşaltma: "Grok, Kim Haklı?"
04:20 Yapay Zeka Zekamızı Elimizden mi Alıyor?
07:53 ChatGPT: Gökitimi Gerçek mi?
11:12 Yapay Zekayı Yemleyebilir misiniz?
12:42 ChatGPT’nin Verdiği Cevaplar Dürüst mü?
14:34 Sosyal Medya ve Yapay Zeka Algılarımızı Nasıl Bozuyor?
16:01 Yapay Zeka Nasıl Denetlenir?
17:33 Yapay Zekayı Nasıl Asistanınız Olarak Kullanabilirsiniz?
19:41 Kapanış
https://youtube.com/watch?v=_Bz-PdCxlkc