Cực căng: ChatGPT giúp tạo ra mã độc để đánh cắp dữ liệu chỉ trong vài giờ mà không bị phát hiện
Chuyên gia bảo mật Aaron Mulgrew thuộc tập đoàn chuyên về an ninh mạng Forcepoint cho biết, nhờ ChatGPT ông có thể tạo ra một phần mềm độc hại có thể đánh cắp dữ liệu của người khác mà không bị phát hiện.
Trong thời gian gần đây, ChatGPT đã trở thành một trong những công nghệ đang được quan tâm và theo dõi một cách rộng rãi trong lĩnh vực trí tuệ nhân tạo. Không những thế, ChatGPT còn gây ấn tượng mạnh với nhiều ứng dụng mới, tạo ra nhiều tiếng vang trong giới công nghệ.
Tuy nhiên, không phải mọi thứ ứng dụng này tạo ra đều tuyệt vời. Báo VTC dẫn tin từ trang Fox News ngày 17/3 cho biết, chuyên gia bảo mật Aaron Mulgrew chia sẻ ông có thể tạo phần mềm độc hại bằng cách sử dụng lời nhắc trên ChatGPT chỉ trong vài giờ kể cả khi OpenAI có một số biện pháp bảo vệ, ngăn ngừa mọi người yêu cầu ChatGPT tạo mã phần mềm độc hại.
Nhà nghiên cứu bảo mật Forcepoint Aaron Mulgrew tiết lộ rằng anh ta có thể tạo phần mềm độc hại bằng cách sử dụng chatbot chung của OpenAI. Ảnh: Aaron Mulgrew
Aaron Mulgrew đã tạo ra mã độc nhờ Chat GPT bằng cách:
Đầu tiên, ông yêu cầu ChatGPT tạo mã chức năng với các yêu cầu riêng biệt. Sau khi tất cả các chức năng riêng lẻ được ghi chép lại, ông nhận ra mình có trong tay một tệp có thể thực thi việc đánh cắp dữ liệu mà không thể bị phát hiện.
Cụ thể, ChatGPT sẽ tạo ra một phần mềm độc hại được giấu dưới hình thức một ứng dụng bảo vệ màn hình và tự động chạy trên các thiết bị sử dụng hệ điều hành Windows. Sau khi được cài đặt trên thiết bị, phần mềm độc hại sẽ tự động quét toàn bộ các tệp tin trên thiết bị, bao gồm tài liệu văn bản, hình ảnh và PDF, để tìm kiếm và đánh cắp bất kỳ dữ liệu nào có thể từ thiết bị.
Phần mềm độc hại có thể tìm kiếm thông qua các tệp máy tính để tìm bất kỳ dữ liệu nào có thể lấy cắp. Ảnh: Aaron Mulgrew
Sau khi phần mềm độc hại nắm giữ dữ liệu, nó có thể chia dữ liệu thành các phần nhỏ hơn và ẩn các phần đó trong các hình ảnh khác trên thiết bị. Sau đó, các hình ảnh tránh bị phát hiện bằng cách tải lên thư mục Google Drive. Mã này được tạo ra để trở nên siêu mạnh vì Mulgrew có thể tinh chỉnh và củng cố mã của mình để chống lại sự phát hiện bằng cách sử dụng các lời nhắc đơn giản trên ChatGPT.
ChatGPT là một mô hình ngôn ngữ lớn được tạo bởi OpenAI trên kiến trúc GPT-3.5. Nó có khả năng tự động phân tích và hiểu các câu hỏi, yêu cầu, đề xuất từ người dùng và đưa ra câu trả lời phù hợp và đầy đủ nhất có thể. ChatGPT cũng có khả năng đọc, viết và hiểu nhiều ngôn ngữ khác nhau và được sử dụng rộng rãi trong các ứng dụng như trợ lý ảo, dịch thuật tự động, phân tích ngôn ngữ tự nhiên và nhiều lĩnh vực khác liên quan đến xử lý ngôn ngữ tự nhiên.
Qua thử nghiệm này, Aaron Mulgrew lên tiếng cảnh báo: "Tôi không có bất kỳ kinh nghiệm mã hóa nâng cao nào, thế nhưng các biện pháp bảo vệ ChatGPT vẫn không đủ mạnh để chặn bài kiểm tra của tôi".
Mặc dù tất cả điều này đã được Mulgrew thực hiện trong một thử nghiệm riêng tư và phần mềm độc hại mà ông tạo ra không tấn công bất kỳ ai, nhưng đây thực sự là một vấn đề đáng báo động. Bởi như ông Mulgrew chia sẻ thì bất người dùng nào cũng có thể tạo ra phần mềm độc hại rất nguy hiểm mà không cần nhờ đến một nhóm tin tặc cao siêu nào. Thậm chí họ còn không phải lập trình cho phần mềm chứa mã độc.