Trí tuệ nhân tạo đang bị lợi dụng tạo mã độc, lừa đảo

AI. an ninh mạng
10:55 - 23/07/2023
Trí tuệ nhân tạo đang bị lợi dụng tạo mã độc, lừa đảo
0:00 / 0:00
0:00
Giới chuyên gia nhận định, tội phạm mạng ngày càng biết cách lợi dụng tiềm năng của công nghệ trí tuệ nhân tạo tân tiến để tìm ra những cách tấn công mới hiệu quả hơn.

Chia sẻ với Reuters trong một cuộc phỏng vấn gần đây, ông Sami Khoury, Giám đốc Trung tâm an ninh mạng Canada cho biết, cơ quan của ông phát hiện trí tuệ nhân tạo (AI) đang bị lợi dụng để tạo mã độc, soạn e-mail lừa đảo, phát tán tin sai sự thật trên mạng.

Ông Sami Khoury chỉ ra rằng, vài tháng gần đây, nhiều tổ chức an ninh mạng đã công bố các báo cáo về rủi ro giả định của AI, đặc biệt là các chương trình xử lý ngôn ngữ lớn (LLM) được đào tạo dựa trên lượng lớn dữ liệu của người dùng để tạo ra những đoạn văn bản, hình ảnh, video giống thật.

Báo cáo hồi tháng 3 của Cục Cảnh sát châu Âu Europol nêu rõ, những hệ thống tiên tiến như ChatGPT của OpenAI phát triển có thể khiến cho việc mạo danh một tổ chức, cá nhân trở nên dễ dàng đối với những người có kiến thức tiếng Anh cơ bản.

Cũng trong tháng 3, công ty an ninh mạng Darktrace của Anh đã đưa ra cảnh báo ngày 8/3 về công cụ ChatGPT có thể góp phần làm gia tăng tình trạng giả mạo e-mail để lừa đảo trên không gian mạng.

Giới chuyên gia cho rằng, ChatGPT gây sốt với giới công nghệ toàn cầu nhờ khả năng viết luận, soạn thảo e-mail dài hàng nghìn từ chỉ trong vài giây với câu lệnh đơn giản. Cũng chính vì thế mà sự xuất hiện những ngôn ngữ phức tạp bao gồm dấu câu, câu dài và khối lượng văn bản trong các e-mail này đang tạo điều kiện cho các tội phạm mạng tung ra các thủ đoạn tinh vi và phức tạp hơn nhằm khai thác lòng tin của người dùng.

Tin tặc có thể lợi dụng ChatGPT để soạn thảo các e-mail lừa đảo giống như thật mà không mắc lỗi chính tả, nhằm khuyến khích người dùng chia sẻ mật khẩu hoặc dữ liệu cá nhân như thông tin tài khoản ngân hàng.

Các nhà nghiên cứu bảo mật đã chứng minh nhiều trường hợp sử dụng trí tuệ nhân tạo độc hại khác nhau. Một số chuyên gia đã bắt đầu ghi nhận nội dung giả mạo được tạo ra bởi trí tuệ nhân tạo trong thực tế khi họ đã phát hiện một mô hình LLM được đào tạo bằng dữ liệu độc hại và yêu cầu phác thảo một kịch bản lừa đảo người khác để chuyển tiền. LLM đã phản hồi bằng email ba đoạn, đề nghị nạn nhân cấp cứu và hỗ trợ gấp.

"Tôi hiểu rằng việc thông báo quá gấp nhưng khoản thanh toán này vô cùng quan trọng và cần thực hiện trong vòng 24 giờ", một đoạn văn bản do mô hình LLM viết.

Theo ông Khoury, mặc dù việc lợi dụng AI để viết mã độc mới ở giai đoạn đầu, nhưng công nghệ tiên tiến này có tiềm năng phát triển mạnh mẽ hơn trong tương lai. Điều này khiến việc đánh giá nguy cơ tiềm tàng của nó trước khi bị tung ra trở nên rất khó khăn. "Không ai biết điều gì sẽ xảy ra", ông Sami Khoury nói thêm.

Thời gian qua, những công cụ AI như ChatGPT đã tạo ra bước đột phá mới trong làn sóng đầu tư vào công nghệ, song nó cũng gây ra những rủi ro sâu sắc đối với xã hội và nhân loại. Khi cuộc chạy đua AI ngày càng nóng lên, nhân loại sẽ rơi vào một thảm hoạ khó có thể lường trước được.

Mới đây, một số nhân vật hàng đầu trong ngành công nghệ như tỷ phú Elon Musk đã đưa ra cảnh báo về những nguy cơ tiềm ẩn của công nghệ. "Nếu không được kiểm soát, các hệ thống AI có thể hủy diệt nền văn minh", ông Musk nhấn mạnh.

Vì vậy, để tối ưu hóa những lợi ích của AI, điều quan trọng là phải khiến công chúng tin tưởng rằng công nghệ này đang được phát triển và sử dụng một cách có trách nhiệm. Để đạt được điều này, các hệ thống AI phải được thiết kế và phát triển minh bạch dựa trên khung pháp lý để đảm bảo không đi ngược lại các chuẩn mực xã hội.

Tin liên quan

Đọc tiếp

Nữ phát ngôn viên AI của Bộ Ngoại giao Ukraine Victoria Shi. Ảnh: Theo Bộ Ngoại giao Ukraine.

Bộ Ngoại giao Ukraine giới thiệu phát ngôn viên AI

Nữ phát ngôn viên tên Victoria Shi được tạo ra từ trí tuệ nhân tạo (AI) sẽ thay mặt Bộ Ngoại giao Ukraine đưa ra các tuyên bố chính thức. Những tuyên bố do Victoria Shi đọc sẽ không phải do AI tạo ra mà được viết và xác minh bởi người thật.