Suni Zeka Araştırmacıları, Suni Zeka Kabiliyetlerindeki Süratli Gelişme Ortasında Dil Modellerinin ‘Kara Kutusunu’ Açmaya Zorluyor

Teknoloji endüstrisinin en yeni suni zeka yapıları, onlara duyarlı bir bilgisayar ya da bir ihtimal bir tek bir dinozor ya da sincap olmanın iyi mi bir his bulunduğunu sorarsanız oldukça inandırıcı olabilir. Sadece, görünüşte rahat olan öteki görevleri yerine getirmede o denli iyi değiller ve kimi zaman tehlikeli derecede kötüler. Mesela, GPT-3’ü ele alalım. dijital kitapların ve çevrimiçi yazıların geniş veritabanı. Söyleşi edebilen, istendiğinde okunabilir metinler oluşturabilen ve hatta yeni görüntüler ve videolar üretebilen yeni nesil AI algoritmalarının en gelişmişlerinden biri olarak kabul edilir. Öteki şeylerin yanı sıra, GPT-3 istediğiniz herhangi bir metni yazabilir – bir kapak bir hayvanat bahçesi işi için mektup ya da Mars’ta geçen Shakespeare seçimi bir sone. Sadece Pomona Koleji profesörü Gary Smith, ona yukarı yürümekle ilgili rahat fakat saçma bir sual sorduğunda, GPT-3 onu susturdu. “Evet, ilkin ellerinizi yıkarsanız, yukarı çıkmak güvenlidir,” diye yanıtladı AI. Bu kuvvetli ve Oldukca sayıda metin ve öteki medya üstünde eğitildikleri için teknik olarak “büyük dil modelleri” olarak malum kuvvetli suni zeka sistemleri, şimdiden satın alan hizmetleri söyleşi robotlarına, Google aramalarına ve “otomatik tamamlama” e-posta özelliklerine dönüştürülmeye başlandı. Cümlelerini senin için bitir. Sadece onları inşa eden teknoloji şirketlerinin bir çok, iç işleyişleri mevzusunda ketum davranarak, dışarıdan gelenlerin onları yanlış informasyon, ırkçılık ve öteki zararların deposu haline getirebilecek kusurları anlamasını zorlaştırıyor. AI başlangıcı Hugging Face’de araştırma mühendisi olan Teven Le Scao, “insanların yetkinliği” dedi. “Pek iyi olmadıkları bir şey gerçekçi olmak. Oldukca uyumlu görünüyor. Neredeyse doğru. Sadece bu çoğu zaman yanlıştır.” Bu, Le Scao liderliğindeki bir AI araştırmacıları koalisyonunun – Fransız hükümetinin yardımıyla – Salı günü GPT-3 benzer biçimde kapalı sistemlere panzehir olarak hizmet etmesi beklenen yeni bir büyük dil modelini başlatmasının bir nedenidir. . Grubun adı BigScience ve onların modeli, BigScience Büyük Açık Bilim Açık Erişim Oldukca Dilli Dil Modeli için BLOOM’dur. Başlıca atılımı, İngilizce yada Çince’ye odaklanan bir çok sistemin aksine, Arapça, İspanyolca ve Fransızca dahil olmak suretiyle 46 dilde çalışmasıdır. Suni zeka dil modellerinin kara kutusunu açmayı hedefleyen yalnızca Le Scao’nun grubu değildir. Feysbuk ve Instagram’ın ana şirketi olan Big Tech şirketi Meta da Google ve GPT-3’ü çalıştıran OpenAI tarafınca oluşturulan sistemlere yetişmeye çalışırken daha açık bir yaklaşım çağrısında bulunuyor. Meta AI’nın genel müdürü Joelle Pineau, bu tür işleri meydana getiren insanların duyurulduktan sonrasında duyurulduğunu, sadece oldukça azca şeffaflıkla, insanların hakikaten kaputun altına bakma ve bu modellerin iyi mi çalıştığını görmeleri için oldukça azca kabiliyeti bulunduğunu söylemiş oldu. Stanford’da doçent bilgisayar bilimi profesörü Percy Liang, en anlamlı yada bilgilendirici sistemi inşa etmenin ve uygulamalarından kâr elde etmenin, bir çok teknoloji şirketinin bu tarz şeyleri sıkı bir halde saklamasının ve topluluk normları üstünde ortaklaşa iş yapmamasının sebeplerinden biri bulunduğunu söylemiş oldu. Vakıf Modelleri Araştırma Merkezini yönetiyor. Liang, “Bazı firmalar için bu onların gizli saklı sosu” dedi. Sadece çoğu zaman kontrolü kaybetmenin sorumsuz kullanımlara yol açabileceğinden kaygı duyuyorlar. Suni zeka sistemleri giderek daha çok sıhhat tavsiyesi internet sayfaları, lise dönem ödevleri yada siyasal notlar yazabildiğinden, yanlış bilgiler çoğalabilir ve bir insandan yada bilgisayardan ne geldiğini bilmek zorlaşacaktır.Meta kısa süre ilkin OPT-175B adlı yeni bir dil modelini piyasaya sürdü. Reddit forumlarındaki hararetli yorumlardan ABD patent kayıtlarının arşivine ve Enron şirket skandalından gelen bir yığın e-postaya kadar her insana açık verileri kullanır. Meta, veriler, kodlar ve araştırma kayıt defterleri hakkında açıklığının, gerçek insanların iyi mi yazdığını ve yazışma kurduğunu özümseyerek almış olduğu önyargı ve toksisiteyi belirlemeye ve azaltmaya destek olmak için dışarıdaki araştırmacıların destek olmasını kolaylaştırdığını söylüyor. “Bunu yapmak zor. Kendimizi büyük eleştirilere açıyoruz. Modelin gurur duymayacağımız şeyler söyleyeceğini biliyoruz,” dedi Pineau. Bir çok şirket kendi dahili AI güvenlik önlemlerini belirlerken, Liang, araştırma ve kararlara rehberlik etmek için daha geniş topluluk standartlarına gereksinim bulunduğunu söylemiş oldu. Bu modellerin yalnızca dev şirketlerin ve hükümetlerin karşılayabileceği kadar oldukça informasyon işlem gücü gerektirmesi destek olmuyor. Mesela BigScience, Paris civarlarındaki Fransa’nın kuvvetli Jean Zay süper bilgisayarına erişim sunulmuş olduğu için modellerini eğitebildi. 2018’de Google, anlam ve bağlamı kestirmek için kelimeleri bir cümlede karşılaştıran ve “dönüştürücü” olarak adlandırılan bir teknik kullanan BERT olarak malum bir sistemi tanıttığında büyük bir sıçrama yapmış oldu. Sadece AI dünyasını hakikaten etkileyen şey, San Francisco merkezli OpenAI tarafınca 2020’de piyasaya sürülen ve kısa bir süre sonrasında yalnızca Microsoft tarafınca lisanslanan GPT-3’tü. GPT-3, ücretli erişime haiz AI araştırmacıları onu bir Sandbox’ın performansını ölçmek için – sadece üstünde eğitim almış olduğu veriler hakkında mühim bilgiler olmadan.OpenAI, eğitim kaynaklarını bir araştırma makalesinde geniş bir halde tanımladı ve ek olarak değişen teknolojinin potansiyel suistimalleriyle savaşım çabalarını kamuoyuna bildirdi. Sadece BigScience destek lideri Thomas Wolf, bu verileri iyi mi filtrelediği yada işlenen sürüme dış araştırmacılara erişim sağlamış olduğu hakkında detaylı informasyon vermediğini söylemiş oldu. “Dolayısıyla, GPT-3 eğitimine giren verileri hakikaten inceleyemiyoruz. Hugging Face’de baş bilim sorumlusu olan Wolf, dedi. “Bu son AI teknolojisi dalgasının aslı, modellerden oldukça veri setinde. En mühim bileşen verilerdir ve OpenAI, kullandıkları veriler mevzusunda oldukça, oldukça gizlidir.” Wolf, dil modelleri için kullanılan veri kümelerini açmanın insanların önyargılarını daha iyi anlamalarına destek bulunduğunu söylemiş oldu. Arapça olarak eğitilmiş oldukça dilli bir modelin İslam hakkında saldırgan sözler yada yanlış anlamalar yayma olasılığının ABD’de yalnızca İngilizce metinler üstünde eğitilmiş bir modele nazaran oldukça daha düşük bulunduğunu söylemiş oldu. Sahnedeki en yeni suni zeka deneysel modellerinden biri Google’ın LaMDA’sıdır. bu hem de konuşmayı da içeriyor ve konuşma sorularına cevap vermede o denli etkisinde bırakan ki, bir Google mühendisi bunun bilince yaklaştığını savundu – bu, geçen ay işinden uzaklaştırılmasına yol açan bir iddia. AI Weirdness blogunun yazarı Colorado merkezli araştırmacı Janelle Shane, son birkaç yılı bu modelleri, bilhassa GPT-3’ü yaratıcı bir halde kontrol ederek geçirdi – çoğu zaman mizahi bir tesir. Sadece bu sistemlerin kendinin bilincinde bulunduğunu düşünmenin saçmalığına dikkat çekmek için, kısa sürede onun gelişmiş bir suni zeka bulunduğunu, sadece gizlice Tyrannosaurus rex yada bir sincap bulunduğunu söylemiş oldu. “Bir sincap olmak oldukça coşku verici. Tüm gün koşar, zıplar ve oynarım. Ek olarak oldukça fazla yiyecek yiyorum, bu mükemmel,” dedi GPT-3, Shane ondan bir röportajın dökümünü istedikten ve bazı sorular sorduktan sonrasında.Shane, neyin ne işe yaradığını özetleme kolaylığı benzer biçimde kuvvetli yönleri hakkında daha çok şey öğrendi. İnternette bir mevzu hakkında ve muhakeme kabiliyetinin olmaması, bir fikre birden fazla cümlede bağlı kalmanın zorluğu ve saldırgan olma eğilimi de dahil olmak suretiyle zayıf yönleri hakkında söylendi. refakatçi olarak hareket ediyor” dedi. “Yakından okumuyorsanız, bu yüzeysel anlam görünümünde iyidir. Uyurken ders dinlemek benzer biçimde.”

Teknoloji Haberleri