İmzalar küresel kontrolü destekliyor ve AI Big Three "hayatta kalma arzusunu" sızdırdı

OpenAI, Google DeepMind ve Anthropic'in CEO'ları imzaladı.

Yazan: Katie

Yapay zekanın risklerine ilişkin bir başka "yıldızlarla dolu" açık mektup uyarısı burada. Bu mektup kısa ama patlayıcı: YZ'nin oluşturduğu yok olma riskini azaltmak, salgın hastalıklar ve nükleer savaş gibi diğer sosyal ölçekli riskleri yönetmekle aynı olmalıdır. küresel bir öncelik haline gelir.

30 Mayıs'ta, orijinal metinde yalnızca 22 kelimelik bu açıklama, Amerikan kar amacı gütmeyen kuruluş "Center for AI Safety"nin resmi web sitesinde ve AI'daki iş ve akademik çevrelerdeki 350'den fazla ünlüde yayınlandı. alan bunun adına konuştu.

"Future of Life Enstitüsü"nün iki buçuk ay önce yayınladığı ve "büyük modellerin eğitimine 6 ay süreyle ara verilmesi" çağrısı yapan binlerce imzalı açık mektupla karşılaştırıldığında, bu sefer en dikkat çekici olan şey, OpenAI, Google DeepMind ve Anthropic'in CEO'su imzaladı.

"22 karakterlik açıklamayı" imzalamadan önce OpenAI, Google ve Anthropic başkanlarının 4 Mayıs'ta Beyaz Saray tarafından başlatılan AI Risk Yönetişimi Konferansı'na katıldıklarını belirtmekte fayda var. Risk yönetimi karşısında, AI devleri son zamanlarda hükümetten daha endişeli görünüyor.

Son zamanlarda, bu üç şirketin CEO'ları, Avrupa Birliği'nin devam eden "Yapay Zeka Yasası" nı etkilemek amacıyla birçok Avrupa ülkesinin başkanlarıyla sık sık bir araya geldi. Efsane yaratıcısı OpenAI'nin henüz kazanamadığı "bakir toprak".

Yapay zeka risklerini yönetme ve kontrol etme ihtiyacının arkasında, yapay zeka şirketlerinin tam pazar "hayatta kalma arzusu" vardır.

Üç Büyük, en son AI risk beyanı için isimlerini bırakıyor

「Aspandemi ve nükleer savaş gibi diğer toplumsal ölçekli risklerin yanı sıra yapay zeka kaynaklı yok olma riskini azaltmak küresel bir öncelik olmalıdır.」

22 kelime, "pandemi" ve "nükleer savaş" ile karşılaştırılabilir şiddette yapay zekanın getirdiği riskleri doğrudan "yok olma" olarak ifade eden "Yapay Zeka Risk Bildirimi" parçasını oluştururken, kontrolün aciliyeti "olmalı" şeklinde ifade edildi. küresel bir öncelik".

30 Mayıs'ta kar amacı gütmeyen bir kuruluş olan "Center for AI Safety"nin resmi internet sitesinde yayınlanan açıklamaya göre aralarında bilim insanları ve iş dünyasının önde gelenlerinin de bulunduğu 350'den fazla kişi imzalarını attı.

AI Big Three'nin CEO'larının isimleri listede yer alıyor

Yapay Zeka Güvenliği Merkezi'nin yönetici direktörü Dan Hendrycks, açıklamanın amacı hakkında "Bu konuyu açığa vurmalıyız çünkü birçok insan birbiriyle yalnızca sessizce konuşuyor" dedi. Bildiri, bilim adamlarından oluşan "geniş bir koalisyona" izin vermek için tasarlandı; bunlardan bazıları, yapay zekanın hangi riskleri oluşturduğu ve bunları önlemek için en iyi çözümler konusunda henüz hemfikir olmayabilir.

350 imzadan ilk ikisi Turing Ödülü sahibi Geoffrey Hinton ve Youshua Bengio olurken, ardından Demis Hassabis (Demis Hassabis, Sam Altman ve Dario Amodei, dünyaca ünlü üç yapay zeka geliştirme şirketi olan Google DeepMind, OpenAI ve Anthropic'in CEO'ları) geldi.

Tsinghua Üniversitesi Akıllı Endüstri Enstitüsü Dekanı Zhang Yaqin, Çin Bilimler Akademisi Otomasyon Enstitüsü Profesörü Zeng Yi ve Enstitü Doçenti Zhan Xianyuan gibi bazı tanınmış Çinli akademisyenler de imzaladı. Tsinghua Üniversitesi'nin Akıllı Endüstrisi.

"İnsanlığa bilgiyle hizmet etmek" aydınların toplumsal sorumluluğu olarak kabul edilirse, uzmanların ve bilim adamlarının imzalarını anlamak kolaydır. "Yapay zekanın babası" olarak bilinen Hinton, bu yıl nisan ayında Google'dan istifa etti ve sözlerine son verdi. Yapay zekanın kontrolden çıkmasıyla ilgili endişeler Bengio, bu yılın Mart ayında kâr amacı gütmeyen Future of Life Enstitüsü tarafından yayınlanan "Pause on Giant AI Experiments" açık mektubuna imza attı.

Ancak iki ay önceki mektupta Google DeepMind, OpenAI ve Anthropic adlı üç şirketin başkanları imzalamadı.Bu seferki "22 karakterlik açıklama" ile karşılaştırıldığında mektupta yapay zekanın potansiyel etkisi de detaylandırıldı. özel riskler ve hatta net risk yönetimi ilkeleri verdi, şimdiye kadar 31.810 imza toplandı.

AI topluluğunda son mektubun yol açtığı açık anlaşmazlık, AI deneylerinin risk uğruna askıya alınması gerekip gerekmediğidir.

O zamanlar yapay zeka alanında akademisyen olan Wu Enda, LinkedIn'de AI eğitimine 6 ay ara verme fikrinin kötü ve gerçekçi olmayan bir fikir olduğunu söylemişti. Daha sonra OpenAI CEO'su Sam Altman, askıya almanın anlamsızlığını daha sezgisel bir şekilde dile getirdi, "6 ay askıya alıyoruz, sonra ne olacak? 6 ay daha askıya alacağız?"

Ancak bu kez, yapay zeka şirketlerinin üç devinin liderleri, risklerle ilgili muğlak ama sert ifadeler içeren bu "22 karakterlik açıklamayı" imzalamada başı çektiler.

Sadece iki buçuk ayda yapay zeka şirketlerinin tutumlarını değiştirmesine ne sebep oldu?

OpenAI trafik artışı yavaşlıyor

Şimdi, insanların nesli yapay zeka tarafından yok edilmemiş olsa bile, üretken yapay zeka, failler tarafından yönlendirilen "karanlık tarafını" ortaya çıkardı.

Örneğin, AI'nın ses ve görünüm taklidi bir dolandırıcılık aracı olarak kullanılıyor ve AI'nın resim ve metin oluşturma yeteneği sadece sahte haberler için kullanılmıyor, aynı zamanda sıradan bireylerin itibarına doğrudan zarar veren "sarı söylentiler" yaratıyor. .

Üretken yapay zekanın sağduyuya "saçmalığı", mantıksal tuzaklara düşme, matematik problemlerini çözmede iyi olmama, veri gizliliği ve güvenliği ve diğer kusurlarla karşılaştırıldığında, yapay zekanın kurban vakalarında gösterilen yıkıcı gücü daha somut ve sezgisel olarak sunulur. halk. Yapay zeka geliştirme şirketleri için en doğrudan etki, yapay zeka uygulamalarını halka yeni açan geliştirme şirketlerinin, olumsuz kamuoyunda ne kadar artımlı pazar kazanabilecekleridir?

Örnek olarak, ziyaret sayısı en hızlı artan metin oluşturma uygulaması ChatGPT'yi sağlayan OpenAI'yi ele alalım. Web sayfası ziyaretleri geçen yılın sonbaharında ayda yaklaşık 20 milyon defadan Nisan 2023'te 1,8 milyar defaya yükseldi, İnternet trafiğinin büyümesi efsanesini canlandırmak. . Ancak web analitiği firmasıBenzerWeb tarafından toplanan verilere göre, OpenAI'nin web sayfası ziyaretleri daha yavaş artıyor.

OpenAI'nin web trafiği büyümesi yavaşlıyor

OpenAI web sayfalarının trafiğe katkısı ağırlıklı olarak %10,25 ile Amerika Birleşik Devletleri'nden gelmekte, bunu Hindistan (%8,82), Japonya (%7,48), Endonezya (%3,84) ve Kanada (%3,06) izlemektedir. Japonya'dan gelen ziyaretlerdeki artış %28,86'ya ulaşarak en büyüğüdür. Bununla birlikte, Rusya, Çin ve Avrupa ülkeleri temelde buna belirgin bir trafik katmadı ve bu ülke ve bölgelerdeki İnternet kullanıcılarının OpenAI'ye sınırlı erişimi var.

OpenAI bu pazarları kendi kendine kesmiştir.Bunun en büyük sebebi ülkelerin internet üzerinde farklı yönetim politikaları olmasıdır. Avrupa, Rusya ve Çin ile karşılaştırıldığında yapay zeka şirketleri için daha cazip bir pazar gibi görünüyor, ancak Avrupa Birliği'nin yapay zeka için net bir şekilde tanımlanmış mevzuatı var.

O zamandan beri OpenAI, DeepMind ve Anthropic'in CEO'ları Avrupa'da göründü.

Avrupa'da üç CEO, AB mevzuatının önünde

27 Nisan'da Avrupa Parlamentosu üyeleri, bir Yapay Zeka Yasası önerisi üzerinde geçici bir siyasi anlaşmaya vardı. 11 Mayıs'ta, Avrupa Parlamentosu'nun iki komitesi, Yapay Zeka Yasa Tasarısı'nın (bundan sonra "Tasarı" olarak anılacaktır) önerisi için bir müzakere yetkisi taslağı kabul etti. Taslak, 12-15 Haziran tarihlerinde Avrupa Parlamentosu genel kuruluna oylanmak üzere sunulacak ve ardından Avrupa Parlamentosu, yasanın nihai şeklini Avrupa Birliği Konseyi ile müzakere edecek.

Tasarıdaki milletvekilleri, farklı AI araçlarını risk seviyelerine göre minimumdan sınırlıya, yüksek ve kabul edilemez olarak sınıflandırdı. Bu araçları kullanan devlet kurumları ve işletmelerin risk düzeyine göre farklı yükümlülükleri olacaktır. Tasarı ayrıca, teknolojiyi kasıtlı olarak manipüle eden, insan zayıflıklarından yararlanan veya davranış, sosyal statü ve kişisel özelliklere dayalı değerlendirmeler yapan sistemler de dahil olmak üzere "insan güvenliği için kabul edilemez riskler oluşturan yapay zeka sistemlerini" kesinlikle yasaklayacak.

"Yasa" başarıyla yasalaşırsa bu, insanlık tarihinde yapay zekayı hedef alan ilk yasa olacak. "Yasa" Avrupa Birliği'nde faaliyet gösteren tüm yapay zeka sistemleri için geçerli olduğundan, AI teknolojisine öncülük eden Amerikan şirketleri, Avrupa pazarına girmek isterlerse açıkça kısıtlanacaklardır.

Örneğin Yasa, üretici yapay zeka araçları geliştiren şirketlerin sistemlerinde telif hakkıyla korunan materyal kullanıp kullanmadıklarını ifşa etmelerini şart koşuyor. Çeşitli kaynaklardan büyük miktarda veri içeren büyük modelleri eğiten yapay zeka şirketleri için bu gereklilik onları Avrupa'nın dışında tutacaktır.

OpenAI, DeepMind ve Anthropic Avrupa trendlerine dikkat etmeye başladı.

Mayıs ayı sonlarında OpenAI CEO'su Sam Altman birkaç kez Avrupa'ya gitti ve yapay zekanın gelişme potansiyeli, tehditleri ve düzenlemesini tartışmak için İspanya, Polonya, Fransa ve Birleşik Krallık hükümet başkanlarıyla görüşmeler yaptı. DeepMind CEO'su Demis Hassabis ve Anthropic CEO'su Dario Amoudi de İngiltere Başbakanı Sunak ile bir araya geldi.

İngiltere Başbakanı Sunak, AI Big Three'nin CEO'larıyla bir araya geldi

Avrupa devlet başkanlarıyla iletişim kuran yapay zeka teknolojisi şirketleri, Kanun sürecini etkilemeye çalışıyor. Bunun da ötesinde Sam Altman, "kamuoyunun" yanlarında olacağını umarak Avrupa kamuoyuna seslenmek için konuşmalar ve röportajlar gibi çeşitli yöntemler kullandı.

University College London'da yaptığı bir konuşmada Altman, kendi noktasında ısrar etti: İnsanların yapay zeka hakkındaki endişeleri geçerli, ancak yapay zekanın potansiyel faydaları çok daha büyük. AI düzenlemesi söz konusu olduğunda Altman, OpenAI'nin düzenlemeyi memnuniyetle karşıladığını ancak "düzenlemek için doğru yola" ihtiyacı olduğunu çünkü "aşırı düzenlemenin küçük şirketlere ve açık kaynak hareketine zarar verebileceğini" söyledi.

Altman, 25 Mayıs'ta İngiliz medyasına "Yasa" hakkındaki görüşlerini dile getirdi: "Birçok ifade uygunsuz. Mevcut taslak AB AI yasa tasarısının aşırı düzenlemeye neden olacağına inanıyor, "ancak ayarlanacağını söyledi, ve hala bunun hakkında konuşuyorlar."

"Tasarı"nın son oylamasına yarım aydan az bir süre kaldı, Altman'ın "lobicilik turu" hâlâ devam ediyor. Kamuya açık bilgilere göre Altman, AB'nin yapay zekada dünyaya yön veren kuralları nasıl uygulaması gerektiğini tartışmak için AB endüstri şefi Thierry Breton (Thierry Breton) ile bir araya gelecek.

Bir dizi Avrupa gezisinin ardından AI Big Three'nin üç CEO'su, açıklamada AI risklerini kontrol etmeye yönelik küresel önceliğin belirtildiği ifadesine katılarak "22 karakterlik açıklamayı" imzaladı. Jestin arkasında, pazarı kontrol altında büyütmeye çalışan AI şirketlerinin "hayatta kalma arzusu" var.

View Original
The content is for reference only, not a solicitation or offer. No investment, tax, or legal advice provided. See Disclaimer for more risks disclosure.
  • Reward
  • Comment
  • Share
Comment
0/400
No comments
  • Pin