Birleşik Krallık’ın önde gelen yapay zeka girişimlerinden birinin kurucusuna göre, büyük yapay zeka modelleri, hangi bilgiler üzerinde eğitildiklerini kontrol etmek için daha fazla şey yapılmadığı sürece yalnızca “daha da çılgınlaşacak”.
Stability AI’nin CEO’su Emad Mostaque, OpenAI’nin GPT4’ü ve Google’ın LaMDA’sı gibi büyük dil modellerini tüm internet üzerinde etkili bir şekilde eğitmeye devam etmenin onları çok öngörülemez ve potansiyel olarak tehlikeli hale getirdiğini savunuyor.
Mostaque, “Laboratuvarlar bunun insanlık için varoluşsal bir tehdit oluşturabileceğini söylüyor” dedi.
Salı günü OpenAI başkanı Sam Altman, Amerika Birleşik Devletleri Kongresine şunları söyledi: teknoloji “oldukça ters gidebilir” ve düzenleme çağrısında bulundu.
Bugün Epsom Koleji’nin baş öğretmeni Sir Antony Seldon, Pazar günü Sky News’den Sophy Ridge’e AI’nın olabileceğini söyledi. “saldırgan ve tehlikeli” olabilir.
Görüntü: Kurucusu tüm internet kullanıcılarının gerçek ve yapay zeka görüntüleri arasında ayrım yapamayacağı konusunda uyaran yapay zeka aracı Stable Diffusion tarafından oluşturulan ‘Edinburgh Kalesi Tablosu’. Resim: Kararlı Difüzyon
Görüntü: Metni görüntülere dönüştüren yapay zeka aracı Stable Diffusion tarafından oluşturulan ‘yeşil ve turuncu meyve baskısı’ görüntüsü. Resim: Kararlı Difüzyon
“insanlar yaparken [the models] Bunu söylersek, muhtemelen bu konuda açık bir tartışma yapmalıyız” diye ekledi Bay Mostaque.
Ancak Stability AI gibi AI geliştiricilerinin böyle bir “açık tartışma” yapma seçeneği olmayabilir. Güçlü metinden görüntüye yapay zeka ürünlerini eğitmek için kullanılan verilerin çoğu da internetten “alındı”.
Yapay Zeka hakkında daha fazlası
Bu, şirkete karşı yasal işlem başlatan milyonlarca telif hakkı görüntüsünün yanı sıra, görüntü veya metin üreten AI sistemlerinin oluşturduğu ürünlerin nihai “sahibi” hakkında büyük soruları içerir.
Şirketi, önde gelen metinden görüntüye yapay zekalardan biri olan Stable Diffusion’ın geliştirilmesinde işbirliği yaptı. Stability AI, şimdiye kadarki en gelişmiş görüntü üreten AI olduğunu iddia ettiği Deep Floyd adlı yeni bir modeli piyasaya sürdü.
Görüntü: Metni resme dönüştüren yapay zeka aracı Stable Diffusion tarafından oluşturulan ‘İngiltere 2026’da erkekler futbol dünya kupasını kazandı’ görüntüsü, aracın her zaman tam olarak anlamadığını gösteriyor. Resim: Kararlı Difüzyon
Stability AI kıdemli araştırmacısı Daria Bakshandaeva, yapay zekayı güvenli hale getirmek için gerekli bir adımın eğitim verilerinden yasa dışı, şiddet içeren ve pornografik görüntüleri kaldırmak olduğunu açıkladı.
Ancak yine de onu eğitmek için çevrimiçi kaynaklardan iki milyar görüntü gerekti. Stability AI, insanların verileri üzerindeki haklarına saygı duyan AI modellerini eğitmek için aktif olarak yeni veri kümeleri üzerinde çalıştığını söylüyor.
Stability AI, ABD’de fotoğraf ajansı Getty Images tarafından, modelini eğitmek için kullanılan veri setinin bir parçası olarak 12 milyon görüntüsünü kullandığı için dava ediliyor. Stability AI, görüntülerin “adil kullanımı” ile ilgili kuralların hiçbir telif hakkının ihlal edilmediği anlamına geldiğini yanıtladı.
Ancak endişe sadece telif hakkıyla ilgili değil. Resimler, metin veya bilgisayar kodu olsun, web’de bulunan artan miktarda veri yapay zeka tarafından üretiliyor.
Mostaque, “Kodlamaya bakarsanız, şu anda üretilen tüm kodun %50’si yapay zeka tarafından üretiliyor, bu da bir yıl veya 18 aydan biraz daha uzun bir süre içinde inanılmaz bir değişim” dedi.
Ve metin üreten yapay zekalar, artan miktarda çevrimiçi içerik, hatta haber raporları oluşturuyor.
8:58 Sir Anthony Seldon yapay zekanın yararlarını ve risklerini vurguluyor
Çevrimiçi içeriği doğrulayan ABD şirketi News Guard, kısa bir süre önce, reklam içeriğine tıklama sağlamak için kullanılan, neredeyse tamamen yapay zeka tarafından oluşturulan 49 “sahte haber” web sitesi buldu.
NewsGuard’ın genel müdürü Matt Skibinski, “Ortalama bir internet kullanıcısının bilgi bulma ve bunun doğru bilgi olduğunu bilme yeteneği konusunda gerçekten endişeliyiz” dedi.
Yapay zekalar, web’i kasıtlı olarak yanıltıcı ve zararlı ya da sadece çöp içerikle kirletme riski taşır. İnsanlar bunu yıllardır yapmıyor değil, sadece artık yapay zekalar, diğer yapay zekaların oluşturduğu web’den kazınan veriler üzerinde eğitiliyor olabilir.
Şimdi daha da güçlü yapay zekaları eğitmek için hangi verileri kullandığımız hakkında iyice düşünmek için daha fazla neden.
Bay Mostaque, “Onları abur cuburla beslemeyin,” dedi. “Şu anda daha iyi serbest gezinen organik modellere sahip olabiliriz. Aksi takdirde, daha da çılgın hale gelecekler.”
Başlamak için iyi bir yerin, ister metin, ister resim veya tıbbi veriler olsun, veriler üzerinde eğitilmiş yapay zekalar yapmak olduğunu savunuyor, bu da, yapıldığı kullanıcılara daha özel. Şu anda çoğu AI, Kaliforniya’da tasarlanmakta ve eğitilmektedir.
Mostaque, “İnsanlığın çeşitliliğini yansıtmak için kendi veri kümelerimize veya kendi modellerimize ihtiyacımız olduğunu düşünüyorum” dedi.
“Bunun da daha güvenli olacağını düşünüyorum. Yalnızca dünyanın en zengin insanlarına açık olan çok sınırlı bir veri kümesine ve çok sınırlı bir dizi deneyime sahip olmaktansa, insani değerlerle daha uyumlu olacaklarını düşünüyorum.”