Reklam

Teknoloji uzmanları, yapay zeka sistemlerinin geliştirilmesine ara verilmesi çağrısında bulunuyor

Musk, Wozniak, Yuval Noah Harari ve binlerce öncü teknoloji uzmanı: yapay zeka teknolojisinin hızlı gelişiminden endişeli. Gelişme bu hızla devam ederse birçok insan işlerini kaybedebilir ve bu, büyük toplumsal sonuçlar doğurabilir diye uyarıyorlar.

Teknoloji uzmanları, yapay zeka sistemlerinin geliştirilmesine ara verilmesi çağrısında bulunuyor
Editör: Turkinfo.nl
31 Mart 2023 - 07:49
Reklam
Reklam

Musk, Wozniak, tarihçi Yuval Noah Harari ve Teknoloji uzmanları yapay zeka teknolojisinin hızlı gelişiminden endişe ediyor ve yapay zeka sistemlerinin geliştirilmesine ara verilmesi çağrısında bulunuyor. Bu durumda birçok insan işlerini kaybedebilir ve bu, büyük toplumsal sonuçlar doğurabilir diye uyarıyorlar.

Teknoloji sektöründen binlerce önde gelen kişi, yapay zeka teknolojisinin hızlı gelişiminden endişe duyuyor. Elon Musk gibi isimlerin imzaladığı açık bir mektupta, yapay zeka gelişiminin geçici olarak durdurulması isteniyor.

Ayrıca, bu programların "bilgi kanallarımızı propaganda ve yanlış bilgilerle doldurma" riski bulunmaktadır.

İmzacılar, yapay zeka sistemlerinin geliştiricilerinden, altı ay boyunca GPT-4'ten daha güçlü programlar geliştirmemelerini istiyorlar. Bu, teknoloji şirketi OpenAI'nin en son dil modeli olan GPT-4'tür. Bu model, basit komutlarla tam metinler yazabilir ve görüntüler oluşturabilir.
Mektubu imzalayanlar, yapay zekanın güvenliği konusunda yapay zeka araştırmacıları ve bağımsız uzmanlar arasında anlaşmalar yapılmasını ve bunların bağımsız olarak denetlenmesini istiyorlar. Aynı zamanda, hükümetlerin yapay zeka gelişimini gözlemleyen yeni kurumlar kurması gerektiği de belirtiliyor.

"Mutluluk veren işler dahil tüm işleri otomatikleştirmeli miyiz? Nihayetinde bizi aşabilecek ve yerimizi alabilecek insan dışı zeka geliştirmeli miyiz? Medeniyetimizin kaybını riske atmalı mıyız? Bu kararlar seçilmemiş teknoloji yöneticilerine bırakılmamalı" deniyor.

İmzacılar, geliştirme arasının yapay zeka gelişimini askıya almak anlamına gelmediğini, tam tersine "yeni yeteneklerle giderek daha büyük ve öngörülemeyen modellere doğru tehlikeli bir yarışa ara verilmesi gerektiğini" belirtiyorlar.

©TURKİNFO.NL

FACEBOOK YORUMLAR

YORUMLAR

  • 0 Yorum

Tüm gelişmelerden haberdar olmak için Turkinfo Hollanda Haber'i:

Adreslerinden takip edin!