fbpx

เตือนภัย!! เทคโนโลยี Deep Voice อาจมีคนปลอมเป็นแฟนคุณก็ได้ ภัยไซเบอร์จาก AI

ในปัจจุบัน เรื่อง #ความปลอดภัยทางไซเบอร์ ถือเป็นเรื่องที่ไม่ควรมองข้ามอย่างเด็ดขาด ตั้งแต่การสร้าง Deep Fake หรือการเลียนแบบรูปร่างหน้าตาของคนใดคนหนึ่งขึ้นมา เพื่อทำอะไรสักอย่างนึงในเรื่องที่ไม่ควร ตอนนี้ Deep Voice เป็นอีกสิ่งแล้ว ที่อันตรายไม่ต่างจาก Deep Fake เลย แต่เรื่องราวของ Deep Voice ที่เรากำลังจะพูดถึง มันเป็นอย่างไร?? มันคืออะไร?? ลองมาดูกันฮะ

 

#DeepVoiceคืออะไร??

ความหมายของ Deep Voice ไม่ได้มีอะไรมากเลย คอนเซปเดียวกับ Deep Fake เลย คือ การลอกเลียนแบบเสียง หรือลักษณะน้ำเสียงการพูดคำพูดจาออกมาให้เหมือนกับบุคคลใดบุคคลหนึ่ง ไม่ว่าจะเป็นคนใกล้ชิด สนิทกันเป็นเพื่อน หรือหัวหน้า พ่อแม่ รวมถึงประธานาธิบดี นายก หรือผู้นำประเทศ ก็ตาม เทคโนโลยี Deep Voice สามารถสร้างขึ้นมาได้ทั้งหมด

 

#ภัยใกล้ตัว ที่หลายคนอาจไม่รู้ว่ามันมีอยู่…

เจค มอร์ อดีตเจ้าหน้าที่ตำรวจในสหราชอาณาจักร เป็นผู้เชี่ยวชาญด้านไซเบอร์ซีเคียวริตี้ (Cybersecurity) กล่าวไว้ว่า การใช้งาน AI ปัญญาประดิษฐ์ เพื่อปลอมแลงอัตลักษณ์ ไม่ว่าจะเป็นภาพ หรือเสียง ใน 2 สิ่งนี้ ถือเป็นกรณีศึกษาที่สำคัญอย่างมากต่อ #ภัยคุกคามทางเทคโนโลยี จากเทคโนโลยีในศตวรรษที่ 21 และหลายคนอาจไม่รู้ด้วยซ้ำว่าสิ่งนี้มันมีอยู่จริงๆ และอันตรายมากๆ

คุณเจค มอร์ ของเรา เผยว่า Deep Voice ที่กำลังพูดถึง มันสร้างง่ายกว่า Deep Fake อย่างมาก ที่พื้นฐานของ Deep Fake นั้น จำเป็นต้องใช้ภาพเคลื่อนไหว ทำให้การหลอกลวง Deep Voice เกิดขึ้นมามากขึ้นอย่างมาก

และในปัจจุบัน ก็ยังมีบริษัทสตาร์ทอัพใหม่ๆที่เกิดขึ้นมาพัฒนาเทคโนโลยี Deep Fake และ Deep Voice โดยเฉพาะมากขึ้นอีกด้วย ไม่ว่าจะเป็น Aflorithmic จากสหราชอาณาจักร Respeecher จากยูเครน และ Resemble จากประเทศแคนาดา มีอยู่เยอะมาก

ซึ่งนี่ก็ทำให้เห็นแล้วว่า เทคโนโลยีนี้ค่อนข้างที่จะก้าวหน้าไปแล้วอย่างมาก

 

#เสียงที่คุ้นเคยแต่ไม่ใช่คนรู้จัก

#รับมือเสียงปลอมยังไงดี??

ปัจจุบัน มีผู้เชี่ยวชาญออกมาย้ำเสมอว่า การรับมือภัยไซเบอร์ในปัจจุบัน ต้องนำมาปรับใช้ตามมาตราฐานความปลอดภัยแบบ Zero-Trust

ว่าง่ายๆก็คือ อย่าเชื่อสิ่งที่มองเห็น…ก่อนตรวจสอบ แม้มิจฉาชีพเกิดขึ้นมาบนโลกเรามากมาย มีการนำเทคโนโลยีใหม่ๆมาใช้ ก็อย่าลืมว่าอีกฝั่งฝ่ายคนดี ก็กำลังพัฒนาเทคโนโลยีเพื่อมารับมือกับมิจฉาชีพเหล่านี้อยู่เหมือนกัน

 

#PindropSecurity

#บริษัทผู้พัฒนาเทคโนโลยีความปลอดภัย

บริษัท Pindrop Security เป็นบริษัทผู้ที่พัฒนาเทคโนโลยี สำหรับระบุตัวตนด้วยเสียงขึ้นมา ในชื่อที่ว่า Deep Voice Biometric Technology เป็นอาวุธหลักอย่างนึงที่บริษัทมั่นใจว่า เป็นเทคโนโลยีที่มีความแม่นยำสูงมาก และสามารถตรวจจับการปลอมแปลงเสียงขึ้นมาได้

แต่แน่นอนพื้นฐานบนโลกแห่งความเป็นจริง การที่มีเทคโนโลยีเพื่อรับมือภัยคุกคามทางไซเบอร์ หรือความปลอดภัยทางไซเบอร์ ก็เป็นเรื่องที่ดีอยู่แล้ว แต่กว่าเทคโนโลยีนี้มันจะพัฒนาเสร็จสมบูรณ์ ระหว่างนั้นก็มีคนที่ถูกหลอกลวงไปแล้วเพิ่มขึ้นอีกด้วย

ซึ่งก็หมายความว่า…

การที่เราหลายๆคนอัพโหลดเรื่องราวในชีวิต ไม่ว่าจะเสียงพูด วีดีโอ ภาพถ่าย ลงไปบนโซเชียลมีเดีย หรือบนโลกออนไลน์ต่างๆ ก็อาจเป็นไปได้ว่ามิจฉาชีพผู้ไม่หวังดี ก็อาจเอาไปใช้เป็นเครื่องมือในการหลอกลวงคนอื่นๆก็เป็นได้

หากคุณอ่านมาถึงตรงนี้แล้ว และชอบเรื่องราวแบบนี้ อย่าลืมกดติดตามให้กำลังใจเพจเล็กๆของเราด้วยนะฮะ

หรือหากใครอยากอ่านเรื่องเกี่ยวกับ เทคโนโลยี Deep Fake ทางการตลาด อ่านได้เลยที่นี่

 

แล้วคุณหละ??

คิดว่า Deep Voice เอามาใช้โกหกแฟนดีไหม…

ลอง comment, share หรือ tag เพื่อนคุณมาพูดคุยกัน!!

 

Source

Deepfake พาซวย โอนเงินตามนายสั่ง มารู้ทีหลังว่า นั่นไม่ใช่เสียงเจ้านาย!

DEEP VOICE™ FOR SPEAKER IDENTIFICATION

ระวังภัย #DeepVoice ปลอมแปลงเสียงคนรู้จัก อีกหนึ่งภัยไซเบอร์จาก AI

Fraudsters Cloned Company Director’s Voice In $35 Million Bank Heist, Police Find

Facebook Comments
Total
0
Shares
Previous Article

อีลอน มัสก์ ทุบสถิติทำลายประวัติศาสตร์โลก รวยสุดในประวัติศาสตร์ #Forbes

Next Article

Justin Bieber เตรียมจัดคอนเสิร์ตใหญ่ในโลก Metaverse ด้วยแพลตฟอร์ม Wave

Related Posts