Trình tạo hình ảnh AI: Mối đe dọa an ninh mạng mới nổi

Trí tuệ nhân tạo (AI) có khả năng thay đổi bản chất của xã hội chúng ta. Và nếu các công cụ AI mà chúng ta hiện có là bất kỳ dấu hiệu nào cho thấy điều gì sắp xảy ra, thì chúng ta có rất nhiều điều để mong đợi.


Chúng ta cũng có nhiều điều phải cảnh giác. Cụ thể là việc tội phạm mạng và các tác nhân đe dọa khác vũ khí hóa AI. Đây không phải là vấn đề lý thuyết và thậm chí cả trình tạo hình ảnh AI cũng không bị lạm dụng.


Trình tạo hình ảnh AI là gì? Họ làm việc như thế nào?

Nếu bạn đã từng sử dụng trình tạo hình ảnh AI, thì bạn sẽ biết khá rõ về chúng. Ngay cả khi bạn chưa bao giờ sử dụng, rất có thể bạn đã bắt gặp những hình ảnh do AI tạo ra trên mạng xã hội và những nơi khác. Phần mềm phổ biến ngày nay hoạt động theo nguyên tắc rất đơn giản: người dùng nhập văn bản và AI tạo ra một hình ảnh dựa trên văn bản đó.

Những gì diễn ra dưới mui xe phức tạp hơn rất nhiều. AI đã trở nên tốt hơn nhiều trong những năm gần đây và hầu hết các trình tạo văn bản thành hình ảnh ngày nay đều được gọi là mô hình khuếch tán. Điều này có nghĩa là họ được “đào tạo” trong một thời gian dài trên một số lượng lớn văn bản và hình ảnh, đó là điều làm cho sáng tạo của họ trở nên ấn tượng và thực tế đến kinh ngạc.

Điều làm cho các công cụ AI này trở nên ấn tượng hơn nữa là chúng không chỉ sửa đổi các hình ảnh hiện có hoặc kết hợp hàng nghìn hình ảnh thành một mà còn tạo ra các hình ảnh mới, nguyên bản từ đầu. Càng nhiều người sử dụng các trình tạo văn bản thành hình ảnh này, họ càng được cung cấp nhiều thông tin hơn và sáng tạo của họ càng trở nên tốt hơn.

Một số trình tạo hình ảnh AI nổi tiếng nhất là Dream by WOMBO, DALL-E, Stable Diffusion, Midjourney, DeepAI, Fotor và Craiyon. Những cái mới đang xuất hiện liên tục và những gã khổng lồ công nghệ — bao gồm cả Google — đang phát hành sản phẩm của riêng họ, vì vậy chúng ta chỉ có thể suy đoán xem tương lai sẽ mang lại điều gì.

4 cách mà các tác nhân đe dọa vũ khí hóa các trình tạo hình ảnh AI

Hình minh họa kỹ thuật số hiển thị màn hình đại diện cho trí tuệ nhân tạo

Giống như hầu hết các công nghệ, trình tạo hình ảnh AI có thể bị lạm dụng bởi những kẻ xấu. Trên thực tế, chúng đã được sử dụng cho đủ loại mục đích bất chính. Nhưng chính xác thì tội phạm có thể thực hiện loại lừa đảo và tấn công mạng nào với sự trợ giúp của trình tạo hình ảnh AI?

1. Kỹ thuật xã hội

Một điều hiển nhiên mà những kẻ đe dọa có thể làm với trình tạo hình ảnh AI là tham gia vào kỹ thuật xã hội; ví dụ: tạo hồ sơ mạng xã hội giả mạo. Một số chương trình này có thể tạo ra những hình ảnh cực kỳ chân thực trông giống như những bức ảnh chân thực của người thật và kẻ lừa đảo có thể sử dụng những hồ sơ mạng xã hội giả mạo này để lừa đảo.

Không giống như ảnh của người thật, những bức ảnh do AI tạo ra không thể bị phát hiện thông qua tìm kiếm hình ảnh ngược và tội phạm mạng không phải làm việc với một số lượng ảnh hạn chế để đánh lừa mục tiêu của chúng—bằng cách sử dụng AI, chúng có thể tạo bao nhiêu tùy thích, xây dựng một danh tính trực tuyến thuyết phục từ đầu.

Nhưng có những ví dụ thực tế về những kẻ đe dọa sử dụng trình tạo hình ảnh AI để lừa đảo mọi người. Vào tháng 4 năm 2022, blogger Ben Dickinson của TechTalks nhận được email từ một công ty luật tuyên bố rằng anh ta đã sử dụng một hình ảnh mà không được phép. Các luật sư đã gửi một Thông báo Vi phạm Bản quyền DMCA qua email, nói với Dickinson rằng anh ta cần liên kết lại với một khách hàng của họ hoặc xóa hình ảnh.

Dickinson đã tra cứu công ty luật trên google và tìm thấy trang web chính thức. Tất cả dường như hoàn toàn hợp pháp; trang web thậm chí còn có ảnh của 18 luật sư, hoàn chỉnh với tiểu sử và thông tin đăng nhập của họ. Nhưng không ai trong số đó là thật. Tất cả các bức ảnh đều do AI tạo ra và các thông báo được cho là vi phạm bản quyền đã được gửi bởi một người nào đó đang tìm cách tống tiền các liên kết ngược từ các blogger không nghi ngờ, như một phần của chiến lược SEO (Tối ưu hóa Công cụ Tìm kiếm) phi đạo đức.

2. Lừa đảo từ thiện

Khi trận động đất kinh hoàng xảy ra ở Thổ Nhĩ Kỳ và Syria vào tháng 2 năm 2023, hàng triệu người trên khắp thế giới đã bày tỏ tình đoàn kết với các nạn nhân bằng cách quyên góp quần áo, thực phẩm và tiền bạc.

Theo một báo cáo từ BBC, những kẻ lừa đảo đã lợi dụng điều này, sử dụng AI để tạo ra những hình ảnh chân thực và kêu gọi quyên góp. Một kẻ lừa đảo đã chiếu những hình ảnh đổ nát do AI tạo ra trên TikTok Live, yêu cầu người xem quyên góp. Một người khác đã đăng một hình ảnh do AI tạo ra về một lính cứu hỏa Hy Lạp đang giải cứu một đứa trẻ bị thương khỏi đống đổ nát và kêu gọi những người theo dõi anh ta quyên góp bằng Bitcoin.

Người ta chỉ có thể tưởng tượng loại tội phạm lừa đảo từ thiện nào sẽ hoạt động với sự trợ giúp của AI trong tương lai, nhưng có thể an toàn khi cho rằng chúng sẽ chỉ lạm dụng phần mềm này tốt hơn.

3. Deepfakes và thông tin sai lệch

Chính phủ, các nhóm hoạt động và các tổ chức tư vấn đã cảnh báo từ lâu về sự nguy hiểm của deepfakes. Trình tạo hình ảnh AI thêm một thành phần khác vào vấn đề này, dựa trên mức độ thực tế của những sáng tạo của họ. Trên thực tế, ở Anh, thậm chí còn có một chương trình hài kịch có tên Deep Fake Neighbor Wars tìm thấy sự hài hước trong các cặp đôi nổi tiếng khó có thể xảy ra. Điều gì sẽ ngăn một tác nhân đưa tin sai lệch tạo ra một hình ảnh giả mạo và quảng cáo nó trên mạng xã hội với sự trợ giúp của bot?

Điều này có thể gây ra những hậu quả trong cuộc sống thực, như nó đã suýt xảy ra vào tháng 3 năm 2022, khi một đoạn video giả mô tả Tổng thống Ukraine Volodymyr Zelensky yêu cầu người dân Ukraine đầu hàng được lan truyền trên mạng, theo NPR. Nhưng đó chỉ là một ví dụ, vì khả năng gần như là vô tận và có vô số cách mà một kẻ đe dọa có thể làm tổn hại danh tiếng của ai đó, quảng bá một câu chuyện sai sự thật hoặc lan truyền tin tức giả mạo với sự trợ giúp của AI.

4. Gian lận quảng cáo

Vào năm 2022, các nhà nghiên cứu của TrendMicro đã phát hiện ra rằng những kẻ lừa đảo đang sử dụng nội dung do AI tạo ra để tạo quảng cáo gây hiểu lầm và quảng cáo các sản phẩm mờ ám. Họ đã tạo ra những hình ảnh gợi ý những người nổi tiếng sử dụng một số sản phẩm nhất định và chạy các chiến dịch quảng cáo dựa trên những hình ảnh đó.

Ví dụ: một quảng cáo về “cơ hội tư vấn tài chính” có sự góp mặt của tỷ phú Elon Musk, người sáng lập và CEO của Tesla. Tất nhiên, Musk chưa bao giờ xác nhận sản phẩm được đề cập, nhưng đoạn phim do AI tạo ra đã làm cho nó có vẻ như vậy, có lẽ là để thu hút người xem nhấp vào quảng cáo.

AI và An ninh mạng: Một vấn đề phức tạp chúng ta cần giải quyết

Trong tương lai, các cơ quan quản lý của chính phủ và các chuyên gia an ninh mạng có thể sẽ phải làm việc cùng nhau để giải quyết mối đe dọa mới nổi của tội phạm mạng do AI cung cấp. Nhưng làm thế nào chúng ta có thể điều chỉnh AI và bảo vệ người dân bình thường mà không cản trở sự đổi mới và hạn chế quyền tự do kỹ thuật số? Câu hỏi đó sẽ lờ mờ trong nhiều năm tới.

Cho đến khi có câu trả lời, hãy làm những gì có thể để tự bảo vệ mình: kiểm tra cẩn thận mọi thông tin bạn thấy trực tuyến, tránh các trang web mờ ám, sử dụng phần mềm an toàn, luôn cập nhật thiết bị của bạn và học cách sử dụng trí tuệ nhân tạo để tạo lợi thế cho bạn.

Previous Post
Next Post

post written by: