Nguy cơ AI bị lạm dụng để tấn công mạng
Tin tặc có thể sử dụng AI như là công cụ hỗ trợ đắc lực cho các vụ tấn công lừa đảo (phishing)
Mặc dù công nghệ AI (artificial intelligence) chỉ mới trong giai đoạn chớm nở nhưng hãng nghiên cứu thị trường IDC dự báo chi tiêu toàn cầu cho các hệ thống AI và nhận thức có thể đạt 57,6 tỉ đô la Mỹ vào năm 2021.
Hồi đầu năm nay, trò chuyện tại một sự kiện công nghệ ở San Francisco (Mỹ), Giám đốc điều hành Google Sundar Pichai, nói rằng trong tương lai AI còn quan trọng hơn và có tác động sâu sắc đến cuộc sống con người hơn cả điện và lửa. Song cũng có nhiều người nghi ngờ AI. Thiên tài vật lý người Anh Stephen Hawking, người vừa qua đời hồi tháng 3, từng cảnh báo rằng sự xuất hiện của AI có thể là sự kiện tồi tệ nhất trong lịch sử văn minh nhân loại trừ phi xã hội tìm ra cách để kiểm soát sự phát triển của nó theo hướng đúng đắn.
Nguy cơ AI bị lạm dụng để tấn công mạng
AI có thể tự học hỏi cách để phát hiện ra những hành vi đáng ngờ trên Internet, ngăn chặn những kẻ xấu thực hiện vụ tấn công mạng song công nghệ này cũng có nguy cơ bị bọn chúng khai thác để làm tăng mức độ tinh vi trong vụ tấn công mạng.
Tại cuộc hội nghị Black Hat USA 2018 ở thành phố Las Vegas (Mỹ) hôm 8-8, IBM Research, đơn vị nghiên cứu của hãng công nghệ IBM đã chứng minh nguy cơ này. Theo IBM Research, kỷ nguyên AI có thể dẫn đến nguy cơ “vũ khí hóa” trí tuệ nhân tạo. Để nghiên cứu viễn cảnh AI một ngày nào đó có thể trở thành một công cụ lợi hại trong “kho vũ khí” của những kẻ xấu, IBM Research đã phát triển một công cụ tấn công mạng sử dụng sức mạnh của AI. Công cụ này, có tên gọi DeepLocker, là một phần mềm độc hại có khả năng loại bỏ các hệ thống bảo vệ vững mạnh nhất và thực hiện các vụ tấn công có trọng điểm. DeepLocker có khả năng phân tích dữ liệu được thu thập từ nhiều nguồn chẳng hạn mạng xã hội hay các công cụ theo dõi trực tuyến.
Nó được gài vào các hệ thống như phần mềm hội nghị video trực tuyến và “nằm im” cho đến khi xác định được mục tiêu tấn công bằng các công nghệ liên quan đến AI như nhận dạng khuôn mặt, nhận dạng giọng nói và xác định vị trí địa lý. Một khi mục tiêu đã được xác định, DeepLocker sẽ phát động tấn công. “Bạn có thể hình dung năng lực này tương tự như một vụ tấn công bắn tỉa, khác với tấn công tự động không xác định mục tiêu cụ thể và chờ đợi kết quả như các phần mềm độc hại truyền thống. DeepLocker được thiết kế để có thể “tàng hình”, tránh bị phát hiện cho đến khi vào giây phút cuối khi mục tiêu cụ thể được ghi nhận ”, tiến sĩ Marc Ph. Stoecklin, chuyên gia an ninh mạng ở IBM Research, nói.
Mạng lưới nơ-ron sâu của DeepLocker sẽ thiết lập các điều kiện để kích hoạt tấn công. Nếu các điều kiện này được không được đáp ứng và mục tiêu chưa được tìm thấy, phần mềm độc hại vẫn nằm bất động. Để chứng minh năng lực lợi hại của DeepLocker, các nhà nghiên cứu của IBM Research đã gài mã độc đòi tiền chuộc WannaCry được điều khiển bởi DeepLocker vào một ứng dụng hội nghị video trực tuyến. WannaCry hoàn toàn không bị phát hiện bởi các công cụ chống virus và mã độc. Nó tấn công ngay khi xác định mục tiêu bằng cách nhận dạng mục tiêu thông qua hình ảnh khuôn mặt xuất hiện trên màn hình. Khi nạn nhân ngồi trước máy tính và sử dụng ứng dụng hội nghị video trực tuyến, camera trên máy tính sẽ truyền hình ảnh khuôn mặt nạn nhân vào ứng dụng, đúng lúc đó, mã độc WannaCry sẽ được bí mật kích hoạt, chiếm quyền kiểm soát máy tính của nạn nhân. Dù trên thực tế, các vụ tấn công mạng sử dụng các phần mềm độc hại tương tự như DeepLocker chưa xuất hiện nhưng IBM Research cho rằng cần phải nâng cao nhận thức về các cuộc tấn công mạng dạng này để chuẩn bị những phương án phòng vệ trong tương lai.
Biến robot, xe tự lái thành vũ khí
Hồi đầu năm nay, một nhóm 26 chuyên gia từ các trường đại học danh tiếng như Oxford, Cambridge và Yale cũng như các tổ chức nghiên cứu uy tín như OpenAI, Viện Tương lai nhân loại, Trung tâm An ninh Mỹ... đã công bố một bản báo cáo cảnh báo nguy cơ sử dụng trí tuệ nhân tạo cho các mục đích gây hại. Một trong những viễn cảnh đáng lo ngại làm bản báo cáo nêu ra là bọn tội phạm, bọn khủng bố có thể khai thác các tính năng AI của các thiết bị công nghệ cao như robot, xe tự lái hay thiết bị máy bay không người lái để biến chúng thành vũ khí thực sự.
Hãy thử hình dung nguy cơ bọn tội phạm sử dụng robot lau dọn văn phòng cho các vụ ám sát. Vào ngày thực hiện tấn công, một robot lau dọn văn phòng sẽ được bọn tội phạm triển khai trà trộn vào các robot lau dọn văn phòng khác tại trụ sở của một cơ quan chính quyền, chẳng hạn như Bộ Tài chính. Nó sẽ tham gia công việc thường ngày như thu dọn rác, lau chùi hành lang..., cho đến khi hệ thống cảm biến hình ảnh của nó phát hiện ra vị bộ trưởng tài chính. Lúc đó, nó sẽ ngưng công việc lau dọn và di chuyển hướng tới vị bộ trưởng, rồi kích hoạt khối chất nổ được cài giấu bên trong nó, khiến vị bộ trưởng tử vong ngay tại chỗ. Hoặc trong một tình huống giả định khác, kẻ xấu có thể xâm nhập vào hệ thống AI của xe tự lái và thay đổi hình ảnh các biển hiệu giao thông mà nó tiếp nhận. Chỉ cần thay đổi một vài giá trị pixel của biển báo dừng lại, đủ để con người có thể không nhận ra sự khác biệt lớn nhưng có thể khiến hệ thống AI của xe tự lái tưởng rằng đó không phải là biển báo dừng lại và tiếp tục để xe chạy và có thể gây ra tai nạn.
Hỗ trợ đắc lực cho các vụ tấn công lừa đảo
Theo bản báo cáo của nhóm 26 chuyên gia, AI có thể giúp giảm mạnh chi phí của các cuộc tấn công mạng bằng cách tự động hóa một số tác vụ cần nhiều thời gian xử lý đồng thời có thể giúp phân tích hiệu quả hơn các thông tin thu thập trái phép.
Một ví dụ mà bản báo cáo dẫn ra là AI có thể được sử dụng để hỗ trợ hình thức lừa đảo bằng tấn công giả mạo có trọng điểm (spear phishing). Hình thức tấn công này được thiết kế để nhắm đến mục tiêu cá nhân cụ thể nhằm lấy cắp các thông tin nhạy cảm như tên đăng nhập, mật khẩu và các thông tin chi tiết thẻ tín dụng của người sử dụng… bằng cách giả dạng thành một chủ thể tin cậy trong một giao dịch điện tử. Chẳng hạn, các e-mail phishing chứa liên kết đến các trang web giả mạo y như các trang web chính thống, với ý định dẫn dụ người dùng nhấp chuột (click) vào và tiến hành các bước đăng nhập như điện tên đăng nhập, mật khẩu... Ngay lập tức, các thông tin này bị lấy cắp và gửi đến cho kẻ lừa đảo.
Để tiến hành các cuộc spear phishing, thông thường bọn tin tặc sẽ thu thập và phân tích các thông tin cần thiết để có thể giả mạo một chủ thể đáng tin cậy trong giao dịch điện tử. Quá trình đó có thể mất nhiều thời gian nhưng với sự hỗ trợ của AI, bọn tin tặc có thể nâng cao hiệu quả các hoạt động này một cách nhanh chóng.
Chẳng hạn, bọn tin tặc có thể gài một phần mềm độc hại vào máy tính để bàn, máy tính xách tay hay bất cứ thiết bị kết nối nào của bạn. Phần mềm này sẽ thu thập các dữ liệu giao dịch hàng ngày của bạn từ e-mail cho đến các tin nhắn, rồi sau đó, chuyển chúng đến một chương trình trí tuệ nhân tạo để giúp phân tích và nắm bắt cách mà bạn giao tiếp với những cá nhân cụ thể qua e-mail, tin nhắn. Sau đó, chương trình này sẽ giả dạng đóng vai bạn để gửi các e-mail phishing đến các đồng nghiệp và các mối quan hệ khác của bạn, dẫn dụ họ mở e-mail và click vào các đường link hoặc tập tin gài sẵn mã độc.
Trong một bản báo cáo gửi cho Ủy ban đặc biệt về Al của Thượng viện Anh vào đầu năm nay, Pave Palmer, Giám đốc công nghệ ở công ty an ninh mạng Darktrace, viết: “Hãy tưởng tượng một phần mềm độc hại được trang bị năng lực AI có thể hiểu tất cả các tài liệu và có thể tự huấn luyện để bắt chược cách mà bạn giao tiếp khác nhau với những người khác nhau. Sau đó, nó có thể liên lạc với đồng nghiệp và khách hàng của bạn tùy theo tình huống cụ thể bằng cách bắt chước phong cách giao tiếp của bạn với từng người trong số họ”.
Theo Palmer, các tin nhắn hay e-mail lừa đảo bắt chước giọng văn, phong cách viết của một đối tượng sẽ khiến những khách hàng hoặc đồng nghiệp của đối tượng này dễ dàng tin tưởng và có thể click vào các đường dẫn (link) hay tập tin chứa mã độc được đính kèm ở các tin nhắn và e-mail này.
Sử dụng AI để tạo video khiêu dâm giả mạo
Bản báo cáo của 26 chuyên gia cảnh báo AI cũng có thể bị khai thác để tạo ra các video giả mạo bằng cách ghép chồng hình ảnh khuôn mặt của một người lên hình ảnh khuôn mặt của người khác trong các video. Đây là công nghệ hoán đổi khuôn mặt (face-swapping technology) dựa vào AI. Nhờ các kỹ thuật chẳng hạn như máy học, hàng loạt bức ảnh có thể được nhập vào một thuật toán để tạo ra các khuôn mặt sinh động thay thế cho các khuôn mặt của bất kỳ ai trong một video sẵn có trước đó. Bọn xấu có thể sử dụng công nghệ này để ghép chồng hình ảnh khuôn mặt của một nạn nhân lên khuôn mặt của các nhân vật trong các video khiêu dâm, rồi sau đó tống tiền nạn nhân hoặc để trả thù cá nhân.
Vào cuối năm ngoái, một tài khoản có biệt danh “deepfakes” trên mạng xã hội Reddit, đã đăng một loạt video khiêu dâm giả mạo những nữ diễn viên và ca sĩ nổi tiếng của Mỹ như Emma Watson, Scarlett Johansson, Katy Perry, Taylor Swift bằng cách sử dụng công nghệ hoán đổi khuôn mặt. Đến tháng 1-2018, một người dùng khác trên Reddit giới thiệu ứng dụng FakeApp, cho phép bất cứ ai có thể tải nó xuống để sử dụng để tạo các video giả mạo bằng công nghệ hoán đổi khuôn mặt hoạt động dựa vào một mạng lưới nơ-ron nhân tạo và năng lực xử lý đồ họa.
Ngoài ra, các công nghệ xử lý giọng nói và hình ảnh dựa vào AI cũng có thể được sử dụng cho các mục đích tuyên truyền chính trị và lan truyền tin giả. Chẳng hạn, những kẻ xấu có thể dùng các công cụ AI như vậy để tạo ra những video giả mạo cho thấy một nguyên thủ đang phát biểu những lời lẽ kích động mà không diễn ra trên thực tế.
Article sourced from XALUAN.
Original source can be found here: http://xaluan.com/modules.php?name=News&file=article&sid=2323491