Elon Musk ve Steven Wozniak ile birlikte toplamda 2.600'den fazla önde gelen teknoloji lideri, yapay zeka gelişiminin durdurulması çağrısında bulunan açık bir mektuba imza attı. Daha fazla gelişimin topluma ve insanlığa riskler getirebileceğini söylüyorlar.
Yaşamın Geleceği Enstitüsü (FOLI), 14 Mart 2023'te kullanıma sunulan en son GPT-4 modelinden daha yüksek YZ sistemlerinin eğitiminde en az altı ay boyunca bir yavaşlama çağrısında bulunuyor. Lansmanından hemen sonra en popüler uygulamalardan biri haline geldi ve gelişimi ivme kazanıyor. Elon Musk kendi Twitter'ında şöyle yazdı: "Bugün biraz yapay zeka varoluşsal endişesi yaşıyorum."
FOLI, bu hızlı ilerlemenin dünyadaki yaşam tarihi üzerinde derin bir etkisi olabileceğini savunuyor ve yapay zeka geliştirme şirketleri arasında bir yarış olduğu konusunda uyarıyor. Makineler propaganda, aldatmaca, derin sahtekarlık üretebilir ve gerçek olmayan şeyleri yayabilir, tüm işleri otomatikleştirebilir ve genel olarak toplumdaki mevcut sistemleri bozabilir.
Enstitü ayrıca, gelişmeyi durdurma önerilerinin derhal yürürlüğe girmemesi halinde hükümetleri moratoryuma girmeye çağırdı. Bu görüş tüm uzmanlar tarafından paylaşılmıyor ve yapay zekanın toplumu ileriye taşıyabileceğini ve ona faydalı olabileceğini savunuyorlar.
Kaynaklar:
https://cointelegraph.com/news/elon-musk-and-tech-execs-call-for-pause-on-ai-development
https://www.cbsnews.com/news/elon-musk-open-letter-ai/
https://www.ft.com/content/3f584019-7c51-4c9c-b18f-0e0ac0821bf7
You might also be interested in
Subscribe to our Newsletters - the best way to stay informed about the crypto world. No spam. You can unsubscribe anytime.
Please enter your email address
Email is invalid
By sharing your email, you consent to recieving BITmarket's newsletter. 
Read how we process your data in our Privacy policy.
Subscribe to our Newsletters - the best way to stay informed about the crypto world. No spam. You can unsubscribe anytime.
If you have any questions about cryptocurrencies or need some advice, I'm here to help. Let us know at [email protected]