Bị mất hàng nghìn USD vì AI giả giọng người thân & Kỹ thuật tạo ra giọng nói Thông Minh Giả Tạo (St). Fr: MInh Đỗ Texas

16 views
Skip to first unread message

Minh Nguyen Quang

unread,
Aug 16, 2023, 11:16:13 PM8/16/23
to giaitri

Bị mất hàng nghìn USD vì AI giả giọng người thân & Kỹ thuật tạo ra giọng nói Thông Minh Giả Tạo

       BM


Cơn ác mộng của gia đình Perkin, 39 tuổi, bắt đầu khi một người tự nhận là luật sư gọi cho cha mẹ anh, nói anh đã gây ra vụ tai nạn xe hơi, khiến một nhà ngoại giao Mỹ tử vong. Người này cho biết Perkin đang ở trong tù và cần tiền cho các chi phí pháp lý.


Để tăng độ tin cậy, người này chuyển máy cho Perkin, thực chất là kết nối với thiết bị AI giả giọng. Trong đó, "Perkin" nói rất cần tiền, chỉ còn biết tin tưởng vào cha mẹ.


"Giọng nói đủ gần gũi khiến cha mẹ tôi tin đó là tôi", Perkin kể với Washington Post.



BM



Vài giờ sau, "luật sư" hối thúc cha mẹ anh chuyển tiền, nên họ đã ra ngân hàng rút và gửi đi 15.449 USD thông qua một hệ thống chuyển đổi sang Bitcoin. Cha mẹ anh nói họ có cảm giác cuộc gọi "có gì đó bất thường", nhưng vẫn làm theo vì nghĩ đã nói chuyện với con trai. Tối hôm đó, khi Perkin gọi điện, tất cả mới vỡ lẽ.


Perkin nghi ngờ các video anh đăng trên YouTube là nguồn âm thanh cho kẻ lừa đảo huấn luyện AI. "Tiền đã mất. Không có bảo hiểm. Lấy lại là không thể", anh nói.



BM



Tương tự, một buổi sáng, bà Ruth Card, 73 tuổi ở Regina (Canada), nhận được cuộc gọi từ người lạ. Người này nói cháu bà, anh Brandon, bị tạm giam, không có smartphone để liên lạc và cần một số tiền để được tại ngoại.


"Trong đầu tôi lúc đó chỉ lóe lên suy nghĩ rằng tôi phải giúp thằng bé ngay lập tức", bà nói với Washington Post. Bà cùng chồng đến ngân hàng và rút 2.207 USD - mức tối đa bà có thể rút hàng ngày. Cả hai định qua ngân hàng thứ hai để lấy số tiền tương tự.



BM


May mắn cho họ là vị giám đốc ngân hàng đã gọi cả hai vào văn phòng và cho biết: một khách hàng khác cũng nhận được cuộc gọi giống hệt, cũng bị giả giọng người thân với mức "chính xác đến kỳ lạ". Cả hai gọi điện cho cháu trai và đúng là anh không bị bắt.


"Chúng tôi bị cuốn theo câu chuyện mà không tìm hiểu kỹ. Khi đó, tôi tin chắc đang nói chuyện với Brandon mà không nghi ngờ", bà Card cho hay.



BM


Các vụ lừa đảo công nghệ tăng mạnh thời gian qua, nhưng câu chuyện của bà Card hay Perkin cho thấy xu hướng mới đáng lo ngại: kẻ gian đang lợi dụng AI bắt chước giọng nói cho mục đích lừa tiền. Công nghệ này ngày càng rẻ, dễ tiếp cận khiến số nạn nhân ngày càng tăng, chủ yếu nhắm đến người lớn tuổi.


 BM


Theo dữ liệu từ Ủy ban Thương mại Liên bang Mỹ (FTC), trong năm 2022, mạo danh là hình thức lừa đảo phổ biến thứ hai ở Mỹ với hơn 36.000 báo cáo. Kẻ gian thường giả mạo bạn bè hoặc gia đình để khiến nạn nhân mắc lừa. Riêng lừa đảo qua điện thoại chiếm hơn 5.100 trường hợp, gây thiệt hại hơn 11 triệu USD.


Sự tiến bộ của AI thời gian qua nhiều lĩnh vực phát triển, nhưng cũng là công cụ để kẻ xấu khai thác. Chỉ bằng một mẫu âm thanh trong một vài câu nói thu thập được, kẻ gian có thể dùng trí tuệ nhân tạo chuyển thành bản sao giọng nói của một người. Công cụ sau đó "nói" bất cứ thứ gì theo yêu cầu và trở thành phương tiện lừa đảo.



BM


Giới chuyên gia đánh giá, công cụ AI giả giọng nói đang tràn lan, nhưng các cơ quan quản lý vẫn loay hoay kiểm soát. 


Trong khi đó, hầu hết nạn nhân đều khó xác định thủ phạm vì kẻ lừa đảo hoạt động trên khắp thế giới. Các công ty tạo ra AI cũng chưa phải chịu trách nhiệm về việc chúng bị kẻ khác lạm dụng.


BM


"Thật đáng sợ. Mọi thứ tạo thành cơn bão, đưa nạn nhân lạc vào sự hỗn loạn", giáo sư Hany Farid tại Đại học California nhận xét. "Kẻ gian sẽ buộc nạn nhân phải phản ứng nhanh, khiến họ không đủ bình tĩnh để xử lý vấn đề, đặc biệt là khi nghe tin người thân gặp nguy hiểm".


Cũng theo ông, phần mềm AI ngày nay đủ thông minh để phân tích giọng nói của một người. "Chỉ cần một bản ghi âm từ Facebook, TikTok, giọng nói của bạn sẽ được sao chép chỉ trong 30 giây", giáo sư Farid nói.



BM



ElevenLabs, công ty đứng sau VoiceLab - công cụ AI tái tạo giọng nói, cảnh báo ngày càng nhiều phần mềm giả giọng có mặt trên thị trường, dẫn đến tình trạng lạm dụng.



BM



Trong khi đó, Will Maxson, hiện làm việc tại Ủy ban Thương mại liên bang Mỹ FTC, cho biết việc theo dõi kẻ lừa đảo giọng nói "đặc biệt khó khăn" vì chúng có thể sử dụng điện thoại và ở bất kỳ đâu. 


Theo ông, nếu nhận cuộc gọi từ người lạ hoặc từ người thân nhờ hỗ trợ, người dùng cần kiểm tra bằng cách gọi lại cho chính người đang gặp sự cố, cũng như gọi cho các thành viên khác trong gia đình để xác minh thông tin.









ooOOOoo









Kỹ thuật tạo ra giọng nói Thông Minh Giả Tạo
baomai.blogspot.com


"Kỹ Thuật Tạo Ra Giọng Nói Thông Minh Giả Tạo Có Thể Tạo Ra Giống Như Giọng Nói Của Bất Kỳ Người Nào" (This Artificially Intelligent Speech Generator Can Fake Anyone’s Voice)

baomai.blogspot.com


"Giọng nói của con người, với tất cả sự tinh tế và sắc thái của nó, được chứng minh là một điều đặc biệt khó khăn cho các máy tính để cạnh tranh. Sử dụng thuật toán mới mạnh mẽ, một công ty “AI startup” có trụ sở tại Montreal đã phát triển trình tạo giọng nói có thể bắt chước giọng nói của bất kỳ người nào và thậm chí thêm bày tỏ cảm xúc khi cần thiết. Hệ thống này không hoàn hảo, nhưng nó báo trước một tương lai khi tiếng nói, như ảnh, có thể dễ dàng bị giả mạo.


baomai.blogspot.com
  
Khi Siri (Iphone), Alexa (Amazon), hoặc GPS (Google) nói chuyện với chúng ta, thật khá rõ ràng là chúng ta đang nói chuyện với cái máy. Đó là bởi vì hầu như mọi hệ thống chuyển văn bản thành giọng nói trên thị trường dựa vào tập hợp từ, cụm từ và lời nói được ghi lại trước (được ghi lại từ diễn viên lồng tiếng), sau đó được ghép lại với nhau theo kiểu Frankenstein để tạo ra các từ và câu hoàn chỉnh . Kết quả là một âm thanh rõ ràng, liền lạc, một cách máy móc và đôi khi rất buồn cười. Cách tiếp cận này để tổng hợp giọng nói cũng có nghĩa là chúng tôi đang mắc kẹt lắng nghe cùng một giọng nói đơn điệu, được ghi lại nhiều lần.


baomai.blogspot.com
  

Trong nỗ lực "nhái y hệt giọng nói của một số người" bằng giọng nói tự động thoát ra từ ứng dụng của chúng tôi, công ty “AI startup Lyrebird” đã phát triển một thuật toán giả giọng có thể bắt chước giọng nói của bất kỳ ai và đọc bất kỳ văn bản nào có cảm xúc hoặc ngữ điệu được xác định trước. Thật đáng kinh ngạc, nó có thể làm được điều này sau khi phân tích chỉ vài chục giây âm thanh được ghi trước. Trong một nỗ lực để quảng bá công cụ mới của mình, Lyrebird đã sản xuất một số mẫu âm thanh sử dụng tiếng nói của Barack Obama, Donald Trump và Hillary Clinton. ("Xin nghe thử qua bài tiếng Anh để hiểu thêm khả năng giả giọng nói của máy!)


BM


Các bản trình diễn của Lyrebird cũng giới thiệu danh mục giọng nói hầu như không giới hạn và khả năng của hệ thống để khớp với cùng một câu với các ngữ điệu khác nhau.


baomai.blogspot.com
  

Điều này được thực hiện bằng cách sử dụng các mạng Nơron nhân tạo, hoạt động theo cách tương tự như các mạng thần kinh sinh học trong não người. Về cơ bản, thuật toán học cách nhận dạng các mẫu trong bài phát biểu của một người cụ thể và sau đó tái tạo các mẫu đó trong bài phát biểu được mô phỏng.

"Chúng tôi đào tạo các mô hình của chúng tôi trên một bộ dữ liệu khổng lồ với hàng ngàn người nói," Jose Sotelo, một thành viên trong nhóm tại công ty “AI startup Lyrebird” và một chuyên gia tổng hợp giọng nói, nói với Gizmodo. “Sau đó, đối với một diễn giả mới, chúng tôi nén thông tin của họ bằng một khóa nhỏ có chứa DNA giọng nói của họ. Chúng tôi sử dụng chìa khóa này để nói những câu mới. ”


baomai.blogspot.com
  

Kết quả cuối cùng là hoàn hảo - các mẫu vẫn còn trưng bày các đồ tạo tác kỹ thuật số, các vấn đề rõ ràng và sự kỳ quặc khác - nhưng có rất ít nghi ngờ ai đang bị bắt chước bởi trình tạo lời nói. Những thay đổi về ngữ điệu cũng có thể nhận thấy được. Không giống như các hệ thống khác, giải pháp của Lyrebird yêu cầu ít dữ liệu hơn cho mỗi loa để tạo ra một giọng nói mới và nó hoạt động theo thời gian thực. Công ty có kế hoạch cung cấp công cụ cho các công ty cần giải pháp tổng hợp giọng nói.

"Chúng tôi hiện đang gây quỹ và phát triển đội ngũ kỹ thuật của chúng tôi", Sotelo nói. “Chúng tôi đang nỗ lực cải thiện chất lượng âm thanh để làm cho nó ít bị rô bốt hơn và chúng tôi hy vọng sẽ sớm bắt đầu thử nghiệm beta”.


baomai.blogspot.com


Không cần phải nói, hình thức tổng hợp giọng nói này giới thiệu một loạt các vấn đề đạo đức và mối quan tâm về an ninh. Cuối cùng, một phiên bản tinh tế của hệ thống này có thể tái tạo giọng nói của một người với độ chính xác đáng kinh ngạc, khiến người nghe không thể phân biệt được bản gốc từ mô phỏng. Ngày đang đến khi phát âm thanh, giống như một hình ảnh được xử lý trong Photoshop, có thể được điều khiển mà không cần biết của chúng tôi. Các cá nhân vô đạo đức có thể giả mạo một bài phát biểu của một chính trị gia nổi tiếng, thêm một lớp khác vào môi trường sau chân lý mới nổi. Tin tặc có thể sử dụng tổng hợp giọng nói cho kỹ thuật xã hội, lừa ngay cả những chuyên gia bảo mật cẩn thận nhất. Khả năng là gần như vô tận.

Những tác động bất lợi có thể không bị mất trên Lyrebird, điều này cho rằng thời đại mà chúng ta có thể tin tưởng vào các bản ghi âm đang sắp kết thúc.


baomai.blogspot.com
  

"Chúng tôi coi trọng các ứng dụng độc hại tiềm tàng của công nghệ của chúng tôi", Sotelo nói với Gizmodo. “Chúng tôi muốn công nghệ này được sử dụng cho mục đích tốt: trao lại giọng nói cho những người bị mất bệnh, có thể ghi lại chính mình ở các giai đoạn khác nhau trong cuộc sống của bạn và nghe giọng nói của bạn sau này, v.v. Vì công nghệ này có thể được phát triển bởi các nhóm khác có mục đích độc hại, chúng tôi tin rằng điều đúng đắn cần làm là làm cho nó công khai và nổi tiếng, vì vậy chúng tôi ngừng dựa vào bản ghi âm [làm bằng chứng]. ”

Không nghi ngờ gì nữa, chúng tôi sẽ phải sớm bắt đầu ghi âm các bản ghi âm thứ hai, nhưng các giải pháp cũng có thể được phát triển để xác định tính xác thực của bản ghi âm. Con người có thể bị lừa bởi những hệ thống như vậy, nhưng máy tính sẽ không - ít nhất, không phải trong một thời gian. Khi phân tích dạng sóng, hoặc tần số của bài phát biểu của con người, bản ghi âm có độ phân giải cao có thể mang lại một lượng lớn dữ liệu cho máy tính để phân tích. Nó sẽ là một thời gian dài trước khi một chương trình tổng hợp giọng nói có thể tái tạo từng khía cạnh của bài phát biểu đặc biệt của một người, như chi tiết tốt hơn về âm sắc giọng hát (tức là chất lượng lời nói), và tiếng động miệng như hơi thở, âm thanh lưỡi và môi smacking, đến mức mà ngay cả một máy không thể phát hiện sự khác biệt. Ngoài ra còn có các khía cạnh khác của bản ghi để xem xét. Ví dụ, sự vắng mặt của tiếng ồn nền, sự hiện diện của một không gian âm thanh giả, hoặc âm thanh môi trường xung quanh nhân tạo được giới thiệu nên dễ dàng phát hiện bởi một máy được thiết kế cho nhiệm vụ.


baomai.blogspot.com
  

Cuối cùng, tuy nhiên, một chương trình tổng hợp giọng nói có thể giả mạo tất cả những điều này, tại thời điểm đó, khả năng của chúng tôi để phân biệt sự thật từ chế tạo sẽ được đưa vào thử nghiệm.




https://baomai.blogspot.com/








ooOOOoo








Lừa đảo bằng deepfake tăng hơn 1,000%

 BM


Khi ranh giới giữa thực tại và hư cấu ngày càng khó phân biệt, tội phạm trực tuyến chỉ cần hai tiếng đồng hồ để khiến máy điện toán tạo ra một sản phẩm “deepfake” như thật, vốn có thể hủy hoại cuộc sống của một người nào đó.


Sự gia tăng về mức độ phổ biến của các hình ảnh, âm thanh, và video siêu thực được phát triển bằng trí tuệ nhân tạo (AI) thường được gọi là deepfake đã khiến người dùng Internet giật mình.



BM

BM

https://www.youtube.com/watch?v=cQ54GDm1eL0&ab_channel=BuzzFeedVideo



Công nghệ này cũng mang lại cho những kẻ bại hoại trên mạng một lợi thế trong giới tội phạm.


Từ năm 2022 đến quý đầu tiên của năm nay (2023), chỉ riêng ở Hoa Kỳ, việc sử dụng deepfake để lừa đảo đã tăng đến 1,200%.



BM



Dù vậy, vấn đề này không chỉ xảy ra ở Mỹ.


Cùng một phân tích cho thấy deepfake được sử dụng cho mục đích lừa đảo đã bùng nổ ở Canada, Đức, và Vương quốc Anh. Trong nghiên cứu, Hoa Kỳ chiếm 4.3% các vụ lừa đảo deepfake toàn cầu.


Trong khi đó, các chuyên gia AI và các nhà điều tra tội phạm mạng nói rằng chúng ta mới chỉ thấy phần nổi của tảng băng. Những hiện tượng phức tạp của lừa đảo bằng deepfake vẫn tiếp tục.


Ông Michael Roberts nói: “Tôi tin rằng động cơ số 1 khiến bọn tội phạm trực tuyến hoành hành trên mạng là do cơ quan chấp pháp và khả năng theo sát của họ.”



BM

https://www.youtube.com/watch?v=ZaxWPog4h28&t=9s&ab_channel=RapMusic



Ông Roberts là một nhà điều tra chuyên nghiệp và là nhà sáng lập công ty tiên phong Rexxfiled chuyên giúp đỡ nạn nhân của các cuộc tấn công trên web.


Ông cũng thành lập PICDO, một tổ chức chống tội phạm trực tuyến và điều hành chương trình đào tạo chống xâm nhập mạng cho các quân chủng của quân đội Hoa Kỳ, Úc cũng như NATO.


Ông Roberts cho biết, hệ thống luật pháp ở thế giới Tây phương đang bị các vụ lừa đảo trực tuyến “lấn át trong vô vọng,” trong đó có nhiều vụ tấn công bằng deepfake. Hơn nữa, phương pháp chọn lựa được sử dụng để quyết định xem vụ nào được điều tra mà không cần thuê các công ty tư nhân.


Ông cho biết: “Và cho dù như thế, vụ việc vẫn không được giải quyết.”


Theo báo cáo của HSRC, vào năm 2020, thị trường các công cụ phát hiện deepfake được định giá 3.86 tỷ USD và dự báo sẽ tăng trưởng 42% mỗi năm cho đến năm 2026.




Trò đánh lận con đen



BM


Hãy hình dung quý vị nhận được một cú điện thoại từ một người thân yêu, vừa khóc vừa nói rằng họ bị bắt cóc. Đương nhiên, những kẻ bắt cóc muốn có tiền, còn giọng nói của thân nhân quý vị tiếp tục hướng dẫn cách thức giao tiền chuộc.


Quý vị có thể tin rằng ở đầu dây bên kia là giọng nói của người mà quý vị thương yêu, nhưng cũng có thể không phải.


Trong năm nay, các vụ lừa đảo bằng âm thanh deepfake hay “nhân bản giọng nói” đã lan ra rất nhanh trên khắp Hoa Kỳ, khiến những người có lòng trắc ẩn và không có sự đề phòng ở nhiều tiểu bang bị bất ngờ.


Tuy nhiên sự việc không dừng lại ở đó. Các cuộc tấn công deepfake có thể xảy ra dưới nhiều hình thức khác nhau. Những trò lừa đảo khôn lanh này cũng có thể xuất hiện dưới dạng trò chuyện video với người mà quý vị biết.


Các vụ lừa đảo cũng có thể xuất hiện dưới dạng bài đăng trên mạng xã hội của một đồng nghiệp lâu năm để thảo luận cách để khoản đầu tư tiền mã hóa giúp cho họ mua căn nhà mới đẹp đẽ mà họ đang hào hứng chỉ cho quý vị thấy trong một bức ảnh.


Ông Roberts nói: “Chúng ta đã bắt gặp rất nhiều vụ lừa đảo tiền mã hóa.”


Deepfake cũng được sử dụng để tống tiền. Phương thức thường là tạo ra một video hoặc ảnh chất lượng tàm tạm của nạn nhân trong một tình huống dâm ô hoặc gây mất thể diện.


Thế rồi những kẻ tấn công yêu cầu một khoản tiền chuộc, bằng không chúng sẽ phát tán hình ảnh giả mạo này cho đồng nghiệp, cấp trên, gia đình, và những người bạn của nạn nhân.

BM




Từng vụ việc trong số những ví dụ nói trên đã thật sự diễn ra.


Tuy nhiên để tạo ra những thứ giả mạo như thật này, bọn tội phạm cần có quyền truy cập vào các tài liệu như ảnh, âm thanh, và video. Thật không may, lấy được những tư liệu này là điều không khó.



Ông Roberts nói: “Nếu ai đó truy cập vào các ảnh riêng tư trong iCloud của quý vị vốn cung cấp tất cả các mẫu ảnh, thì toàn bộ công nghệ này… sẽ tạo ra những bức ảnh giả siêu thực.”



Hồ sơ truyền thông xã hội là một nguồn tư liệu quý báu cho những tên tội phạm đang tìm cách tạo ra những sản phẩm này.



Con đường để nạn nhân thu hồi tài sản bị mất và danh tiếng có thể rất nghiệt ngã. Ông Roberts lưu ý rằng vụ kiện tụng chống lại tội phạm trực tuyến là một cuộc chiến khó khăn. “Đó là quá trình kéo dài, gian khổ, dai dẳng, và bào mòn người ta về cảm xúc lẫn tài chính.”



Những người khác trong ngành AI nói rằng vấn đề không chỉ nằm ở chất lượng của các sản phẩm giả mạo mà còn ở số lượng.



Ông Alan Ikoev nói: “Sớm hay muộn, người ta sẽ có thể tạo ra bất kỳ tổ hợp pixel của bất kỳ loại nội dung nào. Và việc gạn lọc là tùy thuộc vào quý vị.”




BM




Ông Ikoev là giám đốc điều hành của Fame Flow, công ty tạo ra các quảng cáo dành cho người nổi tiếng và người có ảnh hưởng được cấp phép.



Là một người tiên phong về nội dung được ủy quyền do AI tạo ra liên quan đến những người nổi tiếng, ông đã quá quen thuộc với những hoạt động của các đồng nghiệp phản diện.



Nhưng để chống lại những trò gian lận ngày càng tinh vi này, mọi người cần phải ngờ vực mọi thứ họ nhìn thấy trên mạng. Ông Ikoev nói: “Nếu họ không đặt nghi vấn, thì họ sẽ dễ dàng tin theo.”



Phân biệt thật giả trên mạng đã trở nên khó khăn. Theo một cuộc khảo sát của Ipsos với hơn 25,000 người tham gia ở 25 quốc gia, 86% người dùng Internet thừa nhận họ đã bị các tin tức giả đánh lừa.



Cuộc khảo sát này được kết hợp với một nghiên cứu an ninh mạng gần đây, cho thấy hiện nay các bot tạo ra gần một nửa lưu lượng truy cập Internet.



Nhưng toàn bộ tin xấu không dừng lại ở đó. Ông Roberts cho rằng bọn tội phạm chưa bắt kịp tốc độ phát triển của công nghệ vốn hiện đang vượt xa “những nhân tố xấu.”

Tuy nhiên, cần phải cảnh giác và có sẵn một kế hoạch để đẩy lùi hoặc chống lại các cuộc tấn công bằng deepfake.





Các hành động và biện pháp đối phó




BM




Sự tiến bộ nhanh chóng của công nghệ lừa đảo dường như gợi lên hoài niệm về cái thời mà các vụ lừa đảo trên Internet chỉ là một thư điện tử từ một hoàng tử tự xưng ở một vùng đất xa xôi nào đó cần giúp chuyển tiền.



AI đã cung cấp cho tội phạm mạng những công cụ tốt hơn, nhưng công nghệ này cũng có thể được sử dụng để chống tội phạm.



Ông Nikita Sherbina, giám đốc điều hành của AIScreen, nói với The Epoch Times, “Việc phát triển các công cụ phát hiện deepfake tân tiến áp dụng thuật toán do AI điều khiển là vô cùng quan trọng để chống lại mối đe dọa này. Nỗ lực hợp tác giữa các nhà phát triển AI, nhà nghiên cứu, và công ty công nghệ là điều cần thiết để tạo ra các biện pháp bảo mật mạnh mẽ và nâng cao nhận thức.”



Ông Sherbina cho biết các doanh nghiệp có thể tự bảo vệ mình bằng cách tăng cường công nghệ. Thực chất là biện pháp lấy đòn phản đòn về kỹ thuật số.



Ông nói: “Hãy khai triển các hệ thống xác thực tân tiến dựa trên AI, bao gồm nhận dạng giọng nói và khuôn mặt cùng với xác thực đa yếu tố. Việc liên tục theo dõi và phân tích các mẫu giao tiếp bằng thuật toán AI cũng có thể giúp phát hiện và ngăn chặn các hoạt động lừa đảo.”



Nhưng với mỗi cá nhân, việc phá vỡ hoặc ngăn chặn một vụ lừa đảo deepfake đơn giản hơn.




BM




Trong trường hợp nghi ngờ có một cuộc tấn công nhại giọng nói, ông Roberts cho biết, “Đầu tiên quý vị nên nói, ‘em yêu, anh sẽ gọi lại cho em ngay.’”



Ông lưu ý rằng những kẻ lừa đảo sẽ bịa ra một cái cớ tại sao quý vị không thể gọi lại để xác minh danh tính của họ. Có một mẹo để đánh lạc hướng bọn tội phạm dùng âm thanh nhân bản để giả mạo một vụ bắt cóc là hỏi người gọi những câu hỏi về các thông tin riêng tư không được công khai.



Ông Roberts nói thêm, “Hãy thảo luận về nạn lừa đảo này với gia đình quý vị trước khi vụ việc thực sự xảy ra để họ hiểu những gì quý vị đang làm.”



Ông nhấn mạnh tầm quan trọng của việc không sử dụng các địa chỉ thư điện tử cá nhân có tên đầy đủ hoặc các số liên quan đến ngày sinh của người dùng.



Ngoài ra, người dùng không bao giờ nên sử dụng cùng một mật khẩu đăng nhập cho nhiều trương mục. Ông Roberts lưu ý rằng điều đầu tiên mà tin tặc làm khi lấy được mật khẩu là thử đăng nhập vào mọi trang web có thể để xem mật khẩu này trùng khớp với trương mục nào.



Điều này đúng với các trương mục ngân hàng, lưu trữ đám mây, truyền thông xã hội, v.v.



BM




Nhưng trong khi deepfake đã giúp nâng cao tiêu chuẩn của bọn lừa đảo trực tuyến, thì các phương pháp theo dõi họ vẫn không thay đổi.



Ông Ikoev nói: “Quy trình không thay đổi. AI chỉ là nội dung… còn breadcrumb (*) mà bọn tội phạm để lại thì luôn giống nhau.”


(*) breadcrumb: một tập hợp các liên kết cho phép cho người dùng xác định được vị trí hiện tại của mình trên cấu trúc website



Người ta có thể thiết lập tốt việc lần theo dấu vết bọn lừa đảo, nhưng không thể đưa ra một cách thức rõ ràng để thu hồi số tiền bị mất.



Theo một phân tích, các vụ lừa đảo tài chính bằng deepfake có thể dao động từ 243,000 đến 35 triệu USD.



Ví dụ như, một dụ dỗ đầu tư tiền mã hóa bằng cách sử dụng các chân dung giả mạo ông Elon Musk được cho là khiến người tiêu dùng Hoa Kỳ thất thoát khoảng 2 triệu USD trong sáu tháng.



Có lẽ điều rắc rối hơn là bất cứ ai cũng có thể tạo ra một deepfake. Ông Ikoev giải thích rằng tất cả những gì mà người ta cần để tạo một deepfake trên điện thoại thông minh là một card đồ họa và xem một vài hướng dẫn trên web.



Ông nói: “Vậy là đủ để quý vị tiến hành.”




 

Những gì có thể xảy ra tiếp theo?




BM





Thời điểm diễn ra cuộc bầu cử tổng thống Hoa Kỳ sắp tới vào năm 2024 là rất bấp bênh, do sự gia tăng của các nội dung deepfake.



Ông Roberts cho biết người Mỹ nên chuẩn bị tinh thần cho một cuộc đua bầu cử đầy rẫy những kẻ lừa đảo sử dụng kho vũ khí deedfake.



Bộ An ninh Nội địa Hoa Kỳ cũng bày tỏ lo ngại về việc sử dụng công nghệ này khi nêu rõ: “Mối đe dọa từ deepfake và truyền thông giả không đến từ công nghệ được sử dụng để tạo ra các sản phẩm này, mà từ xu hướng tự nhiên của con người là tin vào những gì họ nhìn thấy.”



Lúc này, những rắc rối mới đã xuất hiện.



Trước đó trong năm nay, các video cho thấy các chính trị gia Hoa Kỳ đưa ra những nhận xét rất khác thường đã nổi lên.



Một video liên quan đến việc bà Hillary Clinton ủng hộ ông Ron DeSantis, một ứng cử viên tổng thống đầy triển vọng thuộc Đảng Cộng Hòa.



Một video khác mô tả Tổng thống Joe Biden đang có những lời nhận xét vô cùng giận dữ về một người chuyển giới.



Theo ông Roberts, đây mới chỉ là bước khởi đầu.


BM



Ông nói: “Deepfake sẽ được sử dụng nhiều để can thiệp vào chính trị,” đồng thời cho biết thêm rằng công nghệ này sẽ khiến công chúng đối mặt với sự kiện tiếp theo có tầm cỡ như COVID nhưng tồi tệ hơn nhiều.



“Tôi không nói về loại thông tin sai lệch như mô tả của cánh tả cấp tiến. Tôi đang nói về những lời dối trá có chủ ý được sử dụng để thao túng xã hội trên toàn thế giới.”










ooOOOoo








Deep fake là gì?

BM


Trí tuệ con người đang dần dần bị “trí tuệ nhân tạo” (AI=Artificial Intelligence) thay thế trong khá nhiều lãnh vực như chơi cờ vua, dịch thuật, y tế trị liệu, xử lý dữ liệu để tự học hỏi... Bài viết sau đây nói về một khả năng khác của AI đang làm con người hoảng sợ. 

BM
  
Bạn có thể nào tin cựu tổng thống Mỹ Barack Obama nói trước hàng triệu khán giả trên Internet “Donald Trump là một kẻ ngốc”, hay Mark Zuckerberg, ông chủ Facebook, khoe khoang “Tôi đang toàn quyền kiểm soát dữ liệu của hàng tỷ người dùng trên toàn cầu”?

Chuyện giả mà không giả.. Năm 2017, video giả mạo cựu Tổng thống Mỹ Obama được nhóm nghiên cứu đại học Washington dùng trí nhân tạo AI để ghép mặt của Cựu Tổng thống Mỹ Barack Obama với một giọng đọc giả, khiến cả thế giới kinh ngạc vì độ chân thật của video. Khái niệm Deepfake bắt nguồn từ thời điểm này.


Deepfake là gì?

BM

Deepfake (tạm dịch là "Giả Hình") là kết hợp của “deep learning” (học kỹ, sâu) và “fake” (giả mạo), đề cập đến các video bị thao túng, hoặc các sản phẩm công nghệ được tạo ra bởi Trí tuệ nhân tạo một cách tinh vi, cụ thể là "học sâu" (deep learning), nhằm tạo ra các hình ảnh và âm thanh bịa đặt nhưng rất giống thật. Công nghệ này được xây dựng trên nền tảng machine learning, mã nguồn mở của Google. ("Học máy" là một ngành khoa học nghiên cứu các thuật toán (algorithm) cho phép máy tính có thể học được các khái niệm (concept) như con người).

Deepfake sẽ quét video và ảnh chân dung của một người sau đó hợp nhất vào một video riêng biệt, nhờ AI thay thế các chi tiết trên gương mặt như mắt, miệng, mũi với chuyển động gương mặt, giọng nói như thật. Càng có nhiều hình ảnh gốc thì AI càng có nhiều dữ liệu để "học".

Deepfake có thể gán khuôn mặt của người này sang người khác trong video với độ chân thực đến kinh ngạc.


Ứng dụng tích cực

BM
  

Có thể nói các hình thức ứng dụng trợ lý giọng nói bắt chước các yếu tố thân mật của con người trong lời nói, bao gồm ngắt nghỉ và tín hiệu bằng lời nói như “hmmm”, có tính thực tế cao, như các cuộc gọi điện thoại trực tiếp, tạo cảm giác với người đối thoại rằng họ đang nói chuyện với một người thực.. Một ví dụ khác, cho thấy sử dụng âm thanh giọng nói để tái tạo giọng nói của người thân yêu đã qua đời là một điều mà mọi người cảm thấy kết nối tốt hơn với người đã khuất. Deepfake giả giọng nói còn có một công năng khác là khôi phục giọng nói của một người khi họ bị mất giọng vì bệnh, hỗ trợ giáo dục bằng cách tái tạo âm thanh của các nhân vật lịch sử, như CereProc tạo ra một phiên bản bài diễn văn cuối cùng của cựu Tổng thống Mỹ John F. Kennedy, người đã bị ám sát năm 1963.


BM
  

Video deepfake có thể làm sinh động các phòng trưng bày và bảo tàng.. Đối với ngành công nghiệp giải trí, công nghệ có thể được sử dụng để cải thiện việc lồng tiếng cho các bộ phim tiếng nước ngoài, v.v… Sự phổ biến của Amazon Alexa và Google Assistant làm cho chúng ta sống thoải mái trong một thế giới hòa trộn giữa thật và giả. Các ứng dụng hứa hẹn nhất của AI đều nằm trong lĩnh vực giải trí.

Từ nhiều năm nay, các đạo diễn phim ảnh đã hao tốn rất nhiều trong việc giúp phim hoàn hảo hơn nhờ kỹ xảo đồ hoạ, hay đơn giản là cắt ghép một khung hình, cảnh vật, con người vốn dĩ không hề ở đó nhưng vẫn xuất hiện trên màn ảnh. Chuyện vào năm 2013, khi nam diễn viên Paul Walker đóng phim “Fast and Furious” qua đời vì tai nạn ô-tô sau một buổi tổ chức từ thiện. Bộ phim lúc ấy chưa đóng xong, tuy nhiên hàng triệu người trên toàn thế giới hào hứng bất ngờ khi gương mặt của anh xuất hiện trong phần phim tiếp theo ra rạp. Ngày nay, AI tái tạo lại hình ảnh của nữ diễn viên quá cố Carrie Fisher trong vai Công chúa Leia trong "Chiến tranh giữa các vì sao".


BM
  

Như vậy khi một diễn viên nổi tiếng qua đời, đạo diễn chỉ cần tạo ra một người giả tiếp tục xuất hiện trong các bộ phim khác. Vấn đề đạo đức ở đây là khả năng tái sinh những người nổi tiếng có thể khiến họ trở thành con rối cho các công ty, được tái tạo để quảng cáo sản phẩm hoặc nhãn hiệu, quyền tôn trọng bản thân của các nhân vật này cần phải được xét đến.


Ứng dụng tiêu cực


BM
  
Ba mươi năm trước, Photoshop xuất hiện và làm thay đổi cách con người tiếp nhận các dữ kiện vì các hình ảnh nhìn thấy có thể là sản phẩm của một quá trình cắt ghép kỳ công. Người ta nghi ngờ vào độ chân thật của hình ảnh và đặt niềm tin vào video, ghi âm vì đây là những thứ gần như không thể giả mạo. Nhưng Deepfake xuất hiện và phá vỡ thành trì của thế giới Internet..

Người ta có thể 'đưa' bất kỳ chính khách nào tới đâu, làm bất cứ điều gì, khi các video được phổ biến để hủy hoại ai đó. Việc áp dụng Deepfake là một điều thú vị, nhưng cần cảnh giác với nó. Trong thực tế, không nên tạo bất kỳ một video giả mạo nào dù chỉ đề mục đích cho vui! Nó có thể khiến chúng ta gặp những rắc rối pháp lý và ảnh hưởng đến danh tiếng của bản thân.

BM
  
Salvador Dali, người áp dụng thuật toán vào ảnh của Marilyn Monroe viết: "Internet nói chung và mạng xã hội nói riêng đều là những phát minh mang tiềm năng lớn lao để phát triển vô tận, ẩn giấu nhiều chương sách mới còn chưa được khai phá nhằm mục đích chia sẻ, kết nối con người lẫn nhau trên toàn cầu. Dẫu vậy, vạn vật đều mang những thái cực đối lập song hành lập nhau, đi kèm với viễn cảnh tươi sáng vẫn luôn là những mặt tối phức tạp, trong đó có vấn nạn fake news, lừa đảo bằng tin tức giả mạo." 

Những nhân vật tiếng tăm rất dễ có nguy cơ bị tấn công bằng video giả mạo. Ngay cả những người phụ nữ bình thường cũng có thể bị người xấu dùng công nghệ này tạo ra những video khiêu dâm, khỏa thân giả mạo, xúc phạm đến danh dự và phẩm giá của họ. Một khi video đã bị phát tán trên Internet thì gần như không thể ngăn chặn nổi. Hơn nữa, rất khó để phân biệt tính thật giả của những nội dung này. Những nội dung sai sự thật sẽ hướng dẫn dư luận, làm hại đến uy tín và danh tiếng của các quan chức chính trị, nhà lãnh đạo doanh nghiệp, diễn viên, nghệ sĩ…, bào mòn niềm tin của mọi người với báo chí, cơ quan, tổ chức xã hội… Một vài ví dụ sau đây:

Đầu năm 2019, một nhóm tội phạm mạng đã lừa giám đốc điều hành công ty có trụ sở tại Anh trả cho họ 243.000 USD bằng cách sử dụng âm thanh deepfake giả giọng ông chủ của doanh nghiệp này qua điện thoại.

Tháng 6/2019, bộ trưởng chính phủ Malaysia bị cáo buộc xuất hiện trong một video quan hệ tình dục với người đồng giới. Hành vi này là bất hợp pháp ở Malaysia, dù những người ủng hộ ông tin rằng hình ảnh đó là giả mạo nhưng các chuyên gia lại không tìm thấy bằng chứng video bị cắt ghép.

BM
  
Một ví dụ khác về sự kiện ở Gabon cuối năm 2018. Khi đó, Tổng Thống Ali Bongo Ondimba của nước này đã không xuất hiện trước công chúng trong vài tháng. Dư luận cho rằng tổng thống Ondimba bệnh nặng, thậm chí đã chết. Nhằm dập tắt tin đồn này, chính phủ đã công bố một video cho thấy tổng thống đọc diễn văn chức mừng năm mới. Trong video, ông Ondimba xuất hiện trông cứng nhắc với nét mặt thiếu tự nhiên. Video lập tức gây nghi ngờ và tranh cãi trên mạng xã hội. Các nhóm chống đối khẳng định video là sản phẩm của Deepfake và tổng thống đã qua đời. Ông Ondimba sau đó xuất hiện trở lại và tiếp tục lãnh đạo Gabon. Cho đến nay, giới chuyên gia vẫn chưa thể khẳng định đoạn video của ông có phải là giả mạo hay không?

BM
  
Deepfake ngày nay hiển nhiên trở thành vũ khí hữu hiệu nhất trong chính trị.. Thông tin giả mạo có thể dẫn đến biểu tình, bạo động, gây bất ổn... Chuyện gì sẽ xảy ra, nếu trên mạng bỗng dưng xuất hiện một video deepfake mô tả ứng cử viên tổng thống đang quấy rối tình dục trẻ em, hoặc một cảnh sát trưởng đang xúi giục nhân viên thực hiện hành vi bạo lực với người dân tộc thiểu số, hay những người lính có hành động tàn ác trong chiến tranh…

Một giải pháp được nhiều nước cân nhắc là đưa ra luật quy định việc tạo và phát tán nội dung Deepfake là bất hợp pháp. Vào tháng 10, 2019, California quy định rằng việc tạo hoặc chia sẻ video, hình ảnh, giọng nói của các chính trị gia bằng công nghệ Deepfake trước cuộc bầu cử là phạm luật. Tuy nhiên, giải pháp này vẫn không hiệu quả, do tính ẩn danh và không biên giới của Internet. Trong giai đoạn này, các hãng công nghệ lớn như Facebook, Google và Twitter phải hành động để hạn chế sự lan truyền của những video giả mạo.

BM
  
Nghị Sĩ Marco Rubio nhận xét: "Ngày xưa, nếu muốn đe dọa Hoa Kỳ, đối thủ cần có 10 hàng không mẫu hạm, vũ khí hạt nhân và hỏa tiễn tầm xa. Ngày nay, tất cả những gì bạn cần là khả năng sản xuất một video giả mạo nhưng trông như thật, để gây ảnh hưởng tới kết quả bầu cử, đẩy nước Mỹ vào khủng hoảng và làm suy yếu chúng ta.”

BM
  
Thông thường, các tin xấu và gây tranh cãi luôn lan truyền rất nhanh, nhưng các tin đính chính sau đó lại ít người biết tới. Tuy nhiên, nếu mọi người có xu hướng hoài nghi mọi video họ xem, kể cả thông tin chính thống, ông Hany Farid, một trong những chuyên gia hàng đầu thế giới về deepfake, nói: "Nếu bạn không còn tin những video hay những đoạn âm thanh mà bạn xem, đó thật sự là nguy cơ an ninh quốc gia nghiêm trọng.” Ông dự đoán trong tương lai gần, công nghệ Deepfake sẽ phát triển từ một hiện tượng lạ trên Internet thành một công cụ tàn phá xã hội, công kích chính trị. Ông cũng cho rằng mọi người cần có sự chuẩn bị để đối mặt với vấn đề này.


Ảnh ghép phim khiêu dâm


BM
  
Ác mộng mà Deepfake mang lại là sự giả mạo ghép ảnh phụ nữ khoả thân. Ghép mặt người khác vào nhân vật phim khiêu dâm đang ngày càng phổ biến, đặt ra những câu hỏi mới về vấn đề “lạm dụng công nghệ” tại Trung cộng. Cuộc điều tra của tờ The Beijing News đã phát hiện ra nhiều dịch vụ làm việc này với giá chưa tới 1 USD.

Theo thống kê, tính đến tháng 9/2019, có 96% video deepfake chứa nội dung khiêu dâm. Có một số trang web chuyên phát những nội dung này và thu hút rất nhiều lượt xem trong suốt hai năm gần đây. Những nội dung trong đó hầu hết được tổng hợp từ những video với sự ghép mặt của những người nổi tiếng.

BM
  
Ai cũng có thể là nạn nhân của Deepfake. Nếu một ngày nào đó bỗng nhiên bạn thấy mặt mình xuất hiện trong một bộ phim khiêu dâm và được lan truyền trên mạng, với tốc độ lan truyền nhanh như hiện nay thì việc một video khiêu dâm sẽ nhanh chóng đến tay bạn bè và người thân của bạn. Khi đó danh dự và mọi người sẽ nhìn và đánh giá bạn ra sao? Đây là ví dụ rõ ràng nhất cho thấy sự xuất hiện của công nghệ Deepfake đã khiến công chúng càng khó phân biệt đâu là thật giả. Và những người có ý đồ dẫn dắt dư luận sẽ cố gắng khai thác điều này, làm cho tình hình ngày càng trở nên tồi tệ hơn.Cách tạo một Deepfake.

Mọi sản phẩm sử dụng trí tuệ nhân tạo đều trải qua hai bước chính: nạp dữ liệu đầu vào, sau đó dựng lên mô hình và lựa chọn một thuật toán để liên tục xử lý, "học" từ các mô hình đó.

BM
  
Theo Reddit, dữ liệu đầu vào để tạo nên một video ghép mặt giả mạo rất đơn giản, nó chính là những bức ảnh công khai của diễn viên có trên mạng từ Google, những clip video có sẵn từ Youtube. Cách làm và công cụ cũng có sẵn, người dùng “deepfakes” chỉ cần thực hiện vài thuật toán mã nguồn mở như Google TensorFlow hoặc Keras để cho cỗ máy “học” và ghép khuôn mặt với độ giống cao. Quá trình “học” chính là đóng góp mấu chốt của trí tuệ nhân tạo.

Nhóm nghiên cứu Samsung hợp tác với Viện Khoa học và Công nghệ Skolkovo đã phát triển được một phương thức để hoạt họa hóa các bức chân dung cổ điển, khiến chúng trở nên sống động hơn bao giờ hết, phát triển một hệ thống dựng hình mặt người sử dụng với nguồn hình ảnh tĩnh cực ít, kể cả chỉ duy nhất một tấm hình gốc cũng có thể giúp nó hoạt động và làm giả được.

BM
  
Rất khó tạo một deepfake nếu chỉ sử dụng một chiếc máy tính thông thường. Hầu hết các sản phẩm deepfake được làm nên từ các máy tính cao cấp với card đồ họa (hay còn gọi là card màn hình - Graphics card) mạnh mẽ, hay cao hơn nữa là sử dụng điện toán đám mây (cloud computing).

Deepfakes chất lượng kém dễ dàng bị phát hiện. Những khuôn mặt trên deepfake không thể chớp mắt như bình thường, vì thuật toán không bao giờ thực sự "học" về việc chớp mắt. Đồng bộ môi xấu, hoặc màu da loang lổ có thể giúp nhận ra đâu là video giả. Các chi tiết như tóc đặc biệt khó để deepfake có thể “render” (kết xuất đồ họa hay quá trình tập hợp các mô hình thành một hình ảnh) một cách mượt mà. Đồ trang sức hay răng làm ẩu cũng là một điểm cần chú ý, hay các hiệu ứng ánh sáng kỳ lạ, chẳng hạn như chiếu sáng không nhất quán và phản chiếu trên mống mắt sẽ là một căn cứ quan trọng để phân biệt. Các nhà nghiên cứu đã giới thiệu một công cụ cho phép nhận diện các video deepfake.

BM  
  
Công cụ này còn có thể phân tích được những chi tiết mà mắt người không thể nhận ra, như phân tích phổ hoặc ánh sáng của bức ảnh để nhận ra vị trí khác biệt. Tuy nhiên, họ cũng thừa nhận phải liên tục phát triển để chạy đua với những kỹ thuật làm giả mới nhất. Đáng sợ hơn, Deepfake đang ngày càng được cải tiến và hoàn thiện vượt qua trí tưởng tượng của người thường, những video deepfake xuất hiện ngày càng nhiều và gia tăng với tốc độ chóng mặt trên mạng Internet. Theo thống kê của Deeptrace, tính đến đầu năm 2019, có 7.964 video deepfake xuất hiện trực tuyến. Chỉ sau 9 tháng, còn số này đã tăng lên đến 14.678 và tất nhiên vẫn tiếp tục tăng một cách nhanh chóng.


Đạo đức khoa học

BM
  
Phát minh nguyên tử năng hay Deepfake không mang lại lợi ich cho nhân loại bao nhiêu mà tai họa thì rất lớn.

Năng lượng hạt nhân là giải pháp mới để sản xuất ra điện năng so với các nguồn năng lượng khác và được cho khá an toàn, nhưng trong lịch sử đã chứng kiến nhiều sự cố về các nhà máy điện hạt nhân. Chất thải của nhà máy nguyên tử rất độc hại và tồn tại cả ngàn năm. Khả năng rủi ro rò rỉ phóng xạ cao là một hiểm họa cho sự sống muôn loài. Chưa nói đến vũ khí hạt nhân thật sự là một đại thảm họa cho nhân loại.

Tính cho tới nay, chỉ có hai quả bom hạt nhân đã được sử dụng trong Thế chiến II tại Hiroshima và Nagasaki (Nhật Bản), đã cho thế giới thấy sức công phá và hủy diệt khủng khiếp của chúng.. Ngày nay cả thế giới có trên 15.000 loại vũ khí hạt nhân và hãy tưởng tượng nếu có một lãnh tụ điên khùng nào ra lệnh nhấn nút khai hỏa thì loài người sẽ tuyệt chủng, những người còn lại mức sống và tuổi thọ chỉ tương đương với thời kỳ trước Trung cổ. Ngoài ra, nó cũng sẽ hủy diệt hệ sinh thái và tác động khủng khiếp đến khí hậu Trái Đất.

Vũ khí hạt nhân tiêu diệt thế giới vật chất. Vũ khí Deepfake tiêu diệt giá trị tinh thần.


Sự giả mạo và dối trá


BM
  
Con người ngày nay sống trong một thế giới đầy sự giả mạo, dối trá, không ai còn tin những giá trị thật của lời nói, con người thật, sản phẩm hàng hóa thật. Các bộ phận trong con người như tóc, tai, mắt, mũi, chân mày, lông mi, đến cả ngực, mông đều có thể làm giả. Các sản phẩm mỹ thuật như cây, hoa, thú vật kiểng cũng được làm giả bằng các loại nhựa.

Các mặt hàng giả, phẩm chất kém, đa dạng, đầy dẫy, gây thiệt mạng cho người tiêu thụ như phụ tùng an toàn xe hơi, mỹ phẩm... Thực phẩm giả ẩn chứa nhiều rủi ro cho sức khỏe như trứng giả chứa nhiều thành phần gây hại; mì giả làm bằng ngũ cốc hư thối; nước mắm giả được chế từ nước lã, muối, chất hóa học tạo màu, hương vị; thuốc chữa bệnh giả chứa độc chất nguy hiểm, kim loại nặng, hoặc gây chết người. Từ những thứ giả mạo đó, xã hội sinh sản ra những hạng người giả: bác sĩ giả (học dỏm, trường dỏm), giáo sư giả (bằng cấp dỏm), thể tháo giả (dùng thuốc cường lực), tu sĩ giả (khẩu phật tâm xà) v.v...


Tương tác giữa người với người


BM
  
Mối quan hệ giữa người với người luôn tồn tại hai hiện tượng song hành đó là thật và giả. Thật, giả có lúc rất rõ ràng, dễ nhận biết, nhưng cũng có lúc lẫn lộn, phức tạp, khó nhận biết. Sự thật khách quan được hiểu cái gì đó là đúng hoặc có thể được chứng minh với bằng chứng cụ thể.

BM
  
Sự giả dối có thể nhận thức được từ ý chí chủ quan của một người. Người tạo ra sự giả dối đều có mục đích riêng của nó. Bà Vian Bakir, giáo sư truyền thông chính trị và báo chí tại Đại học Bangor Xứ Wales, viết: "Điều đặc biệt tồi tệ về thời điểm hiện tại là một số chính trị gia nổi bật... và các nhà lãnh đạo chuyên quyền trên khắp thế giới đã biến việc nói dối trơ trẽn trở thành thói quen và đương nhiên họ không quan tâm liệu họ có bị phát hiện hay không." Bà nói thêm: "Tôn giáo trở thành tồi tệ khi người ta dùng nó làm chính trị – để bảo vệ quyền lợi của giáo hội, để tấn công “kẻ xấu”, để ủng hộ chiến tranh và xâm lăng, để tận diệt các văn hóa và tôn giáo khác, để bảo vệ giáo pháp, để thay trời hành đạo… nói chung là mọi việc có tính cách chính trị – dù các từ ngữ dùng nghe cao siêu đến thế nào."

Quan hệ xã hội, kế cá các quan hệ thân thuộc như cha mẹ , vợ chồng, con cái , anh em, bà con , thầy trò, chủ tớ... phần lớn đều được giao tiếp qua sự giả dối. Phải nhận rằng, con người hiện nay sống theo quan niệm người khác, suy nghĩ theo người khác, nói theo người khác, hành động theo người khác, rất hiếm cái nào là thực tế khách quan, chân thật.

BM
  
Deepfake làm mất niềm tin, làm người ta không phân biệt phải trái, chân giả, cuốn vào guồng quay điên cuồng của nó. Phải nhận biết được sự thật, chấp nhận và đối diện với sự thật, lên án, bài trừ sự giả dối thì xã hội loài người mới phát triển theo quy luật tiến hoá của nhân loại. Nuôi dưỡng sự giả dối, tư tưởng dễ mất phương hướng, thiếu niềm tin chân lý, chìm ngập trong mơ hồ, ảo tưởng, làm nghiêm trọng thêm căn bệnh chủ quan, đưa đến hoang tưởng, cực đoan.

Chừng nào con người trở về với chân tâm của mình thì chừng đó tâm mới an, xã hội mới bình.
BM














Reply all
Reply to author
Forward
0 new messages