İnternet, günlük yaşamla o kadar iç içe geçmiştir ki, bu müthiş teknolojinin ne kadar olağanüstü bir başarı ve hazine olduğunu unutmak kolaydır. Sadece birkaç on yıl içinde, insanlığın bilgi birikiminin büyük bir kısmı toplu olarak yazıya döküldü ve internet bağlantısı olan herkesin erişimine sunuldu.

Ancak tüm bunlar sona ermek üzere. Yapay zekanın ortaya çıkışı, yazarların, sanatçıların ve diğer yaratıcıların insan kitlelerine ulaşmasını sağlayan karmaşık çevrimiçi ekosistemi yok etmekle tehdit ediyor.

Nedenini anlamak için, yayıncılığı anlamak gerekiyor. Yayıncılığın temel görevi, yazarları izleyicilerle buluşturmaktır. Yayıncılar, yayın adaylarını filtreleyerek ve ardından seçilenleri daha da güçlendirerek bir nevi "kapı bekçisi" gibi çalışırlar. Seçilmeyi uman yazarlar, çalışmalarını çeşitli biçimlerde şekillendirirler. Örneğin bu makale eğer ki bir akademik yayın olsaydı bundan çok farklı bir dil ve formatta yazılabilirdi. Veya aynı yazı, The Atlantic'te yayınlanabilmek için bir editöre sunuldu, üslup ve detay bakımından birden fazla taslağın gözden geçirilmesi vb. gerekti.

Yunanistan'da son 24 saatte çıkan 45 orman yangınından 31'i kontrol altına alındı Yunanistan'da son 24 saatte çıkan 45 orman yangınından 31'i kontrol altına alındı

İnternet, başlangıçta bu süreci değiştirmeyi vaat ediyordu. Herkes, her şeyi yayınlayabilecekti! Ancak o kadar çok şey yayınlanıyordu ki işe yarar bir şey bulmak zorlaştı. İnsanların kendilerini içinde bulduğu bu "medya tufanının", geleneksel yayıncıların sağladığı pek çok işlevi daha da gerekli hale getirdiği kısa sürede anlaşıldı.

Teknoloji şirketleri, bu devasa içerik filtreleme görevini üstlenmek için otomatik modeller geliştirerek "algoritmik yayıncı çağı"nı başlattı. Bu yayıncıların en tanıdık ve güçlü olanı Google'dır. Arama algoritması artık internetin her şeye gücü yeten filtresi ve en etkili amplifikatörüdür; üst sıralarda yer verdiği sayfalara milyonlarca göz getirebilir ve alt sıralarda yer verdiklerini belirsizliğe mahkum edebilir.

Buna karşılık, Google'ın değişen tercihlerini karşılamak için milyarlarca dolarlık bir endüstri ("arama motoru optimizasyonu" veya kısaca "SEO") ortaya çıktı ve web sitelerinin arama sonuçları sayfalarında daha üst sıralarda yer alması ve böylece daha fazla trafik ve kazançlı reklam gösterimi elde etmesi için yeni yollar stratejize etti.[1]

İnsan yayıncıların aksine Google, herhangi bir şeyi "okuyamaz". İndekslediği milyarlarca sayfanın anlamını ve kalitesini değerlendirmek için gelen bağlantılar veya ilgili anahtar kelimeler gibi "vekil göstergeler" kullanır. İdeal olarak, Google'ın çıkarları, insan içerik oluşturucuların ve izleyicilerin çıkarlarıyla örtüşmektedir: İnsanlar yüksek kaliteli, alakalı materyaller bulmak ister ve teknoloji devi de arama motorunun bu tür materyalleri bulmak için gidilecek yer olmak ister. Ancak SEO, sistemi manipüle ederek, hak etmeyen materyalleri (genellikle spam veya aldatıcı nitelikteki içerikleri) arama sonucu sıralamalarında üst sıralara yerleştiren kötü aktörler tarafından da kullanılmaktadır. İlk arama motorları sadece anahtar kelimelere dayanıyordu; kısa süre sonra dolandırıcılar, aldatıcı kelimeleri içeriğe nasıl görünmez bir şekilde yerleştireceklerini ve istenmeyen sitelerinin görünüşte ilgisiz aramalarda ortaya çıkmasına neden olacaklarını anladılar. Ardından Google, web sitelerini kendisine bağlantı veren diğer sitelerin sayısı ve kalitesine göre değerlendiren PageRank'i geliştirdi. Buna karşılık dolandırıcılar, "bağlantı çiftlikleri" kurdular ve yorum bölümlerini spam'ladılar, değersiz sayfalarını sahte bir şekilde yetkili olarak sundular.

Google'ın bu aldatmacaları filtrelemek için sürekli geliştirdiği çözümler, bazen meşru yazarların bile tarzını ve içeriğini çarpıtmasıyla sonuçlandı. Bir sayfada geçirilen zamanın algoritmanın değerlendirmesinde bir faktör olduğu söylendiğinde, yazarlar materyallerini gereksiz detaylarla doldurmak zorunda kaldılar ve okuyucular, istedikleri bilgiye ulaşmak için birden çok kez tıklamaya zorlandı. Her çevrimiçi yemek tarifinin, malzeme listesine ulaşmadan önce sayfalarca dolambaçlı anılar içermesinin bir nedeni de bu olabilir.

Üretken yapay zeka araçlarının gelişi, doymak bilmez yeni bir yazı tüketicisi ortaya çıkardı. Büyük dil modelleri (ya da kısaca LLM'ler), devasa malzeme yığınları -ki bazı durumlarda neredeyse tüm internet- kullanılarak eğitiliyor.[2] Bu verileri ölçülemeyecek kadar karmaşık bir olasılıklar ağına dönüştürerek, görünüşte yeni ve akıllıca oluşturulmuş materyalleri sentezlemelerine; kod yazmalarına, belgeleri özetlemelerine ve doğrudan soruları insan gibi görünebilecek şekilde yanıtlamalarına olanak tanıyor.

Bu LLM'ler, yazar ve okuyucu arasındaki geleneksel ilişkiyi de bozmaya başladı. Bir arama motoruna "kırık bir farın nasıl tamir edileceğini" yazdığınızda, o arama motoru normalde süreci açıklayan web sitelerinin ve videoların bağlantılarının bir listesini döndürür. Aynı şeyi bir LLM'ye sorduğunuzdaysa, size sadece nasıl yapılacağını söyleyecektir. Bazı tüketiciler bunu bir gelişme olarak görebilir: Bir LLM, sorgunuzla ilgili çeşitli yanıtları düzgün bir şekilde özetleyecekken, aradığınız yanıtı bulmak için neden birden fazla bağlantıyı takip etme sürecinden geçesiniz ki? Teknoloji şirketleri, bu konuşmaya dayalı, kişiselleştirilmiş yanıtların bilgi aramanın geleceği olduğunu öne sürüyor. Ancak bu sözde kolaylık, sonuçta biz web kullanıcıları için büyük bir maliyet getirecektir.

LLM ile ilgili bariz sorunlar var. LLM'ler zaman zaman bazı şeyleri yanlış anlıyor. Cevapları, çoğu zaman kaynak göstermeden özetliyor ve sentezliyor. Ve insan yaratıcılar (yani LLM'nin bu cevapları üretebilmek için sindirdiği tüm materyali üreten gerçek kişiler), tüketicilerle olan bu etkileşimin dışında kalıyorlar. Dolayısıyla hem izleyicilerini/okurlarını hem de onlardan elde edecekleri geliri kaybediyorlar. Para kazanamayacaksa, bir insan neden içerik üretsin? İçerik üretmeyecekse, LLM'leri hangi bilgilerle geliştireceğiz?