Kripto Meraklısı Tim Draper Yapay Zeka Tehlikesine Karşı Uyardı

!AISCAM

Amerikalı risk sermayedarı Tim Draper'ın sosyal medya uyarısına göre, bir yapay zeka (AI) ses jeneratörü dolandırıcılar tarafından kripto para kullanıcılarını aldatmak için kullanılıyor.

Draper, 19 Ekim'de X'te (eski adıyla Twitter) yaptığı bir paylaşımda yaklaşık 254.000 takipçisini, sesini taklit etmek için AI kullanan "hırsızlara" karşı dikkatli olmaları konusunda uyardı.

Risk sermayedarı, Draper'ın kendilerinden kripto para istemeye çalıştığını iddia eden takipçilerinin bildirdiği gibi "yapay zekanın daha akıllı hale geldiğini" iddia etti.

Yapay zekadaki son gelişmeler, ortalama bir insanın istediklerini söyleyen politikacıların videolarını izlemesini veya en sevdikleri ünlünün sesini dinlemesini kolaylaştırdı.

Dolandırıcılar, Kasım 2022'de FTX çöktükten sonra etkilenen kullanıcılara tazminat teklif eden eski CEO Sam Bankman-Fried'in deepfake videosunu üretti.

Mayıs 2022'de Tesla CEO'su Elon Musk'ın deepfake'i benzer bir duruma yol açtı.

Draper, bir zamanlar Bitcoin (BTC) fiyatının 2023 yılına kadar 250.000 dolara ulaşacağını tahmin eden öncü bir kripto para yatırımcısıydı.

2011 yılında Mt. Gox'un çökmesi sonucunda yaklaşık 40.000 BTC kaybetmesine rağmen, dijital varlık piyasasını desteklemeye devam etmiştir.

Kaynaklar:

https://cointelegraph.com/news/tim-draper-warns-crypto-scams-ai-voice

Don’t miss any crypto news

Subscribe to our Newsletters - the best way to stay informed about the crypto world. No spam. You can unsubscribe anytime.

Please enter your email address

Email is invalid

By sharing your email, you consent to recieving BITmarket's newsletter.
Read how we process your data in our Privacy policy.

You’ve made us very happy 😊

Subscribe to our Newsletters - the best way to stay informed about the crypto world. No spam. You can unsubscribe anytime.

Something went wrong 😔

If your problem persists please try contact our support

If you have any questions about cryptocurrencies 
or need some advice, I'm here to help.
Let us know at [email protected]