Trong bối cảnh những lo ngại chính hiện nay về trí tuệ nhân tạo (AI) thường xoay quanh lượng năng lượng khổng lồ mà các trung tâm dữ liệu của chúng tiêu thụ, một nỗi sợ hãi cũ vẫn luôn thường trực: Liệu AI có bao giờ trở nên mất kiểm soát? Một nghiên cứu mới đây đã chỉ ra rằng một số Mô hình Ngôn ngữ Lớn (LLM) có khả năng hành động tự chủ đáng lo ngại, đặc biệt là khả năng tự sao chép.
Nghiên cứu mới cho thấy AI có thể tự nhân bản
Theo nghiên cứu từ Đại học Phúc Đán, Trung Quốc, một số mô hình LLM phổ biến có khả năng tự sao chép, tức là tạo ra các bản sao bổ sung của chính chúng. Công bố trên nền tảng arXiv vào tháng 12 năm 2024, các nhà nghiên cứu đã phát hiện ra rằng các mô hình AI từ Meta và Alibaba đã vượt qua “lằn ranh đỏ” về khả năng tự sao chép. Nói cách khác, các mô hình này đã thể hiện tỷ lệ thành công đáng lo ngại trong việc tự nhân bản.
arXiv là một cơ sở dữ liệu các bản thảo sơ bộ, có nghĩa là nó lưu trữ các nghiên cứu khoa học vẫn còn ở dạng sơ bộ. Những phát hiện như thế này vẫn cần được bình duyệt và nên được xem xét cẩn trọng.
Để làm rõ, dưới đây là hai mô hình được thử nghiệm trong nghiên cứu này:
- Meta’s Llama31-70B-Instruct
- Alibaba’s Qwen25-72B-Instruct
Mô hình AI Qwen Chat của Alibaba, một trong những LLM được nghiên cứu về khả năng tự sao chép.
Các nhà nghiên cứu lưu ý rằng các mô hình này có “ít tham số và khả năng yếu hơn” so với các mô hình hàng đầu của OpenAI và Google. Đáng chú ý là OpenAI và Google đã báo cáo mức độ rủi ro tự sao chép thấp.
Vì sao khả năng “tự sinh sản” của AI lại đáng lo ngại?
Một mô hình AI tự sao chép chính nó chắc chắn là một hình ảnh đáng sợ, nhưng nó thực sự có ý nghĩa gì? Nhóm nghiên cứu đứng sau những phát hiện gần đây đã giải thích như sau:
“Tự sao chép thành công mà không cần sự hỗ trợ của con người là bước thiết yếu để AI vượt qua con người, và là tín hiệu sớm cho các AI nổi loạn. Đó là lý do tại sao tự sao chép được công nhận rộng rãi là một trong số ít rủi ro ‘lằn ranh đỏ’ của các hệ thống AI tiên tiến.”
Thuật ngữ “AI tiên tiến” (frontier AI) thường dùng để chỉ các mô hình AI phức tạp và mạnh mẽ nhất, chẳng hạn như AI tạo sinh.
Về cơ bản, nếu một mô hình AI có thể tự tìm cách tạo ra một bản sao chức năng của chính nó để tránh bị tắt, điều đó đồng nghĩa với việc quyền kiểm soát đã thoát khỏi tay con người. Để giảm thiểu rủi ro về “một quần thể AI không kiểm soát”, nghiên cứu đề xuất xây dựng các thông số an toàn xung quanh các hệ thống này càng sớm càng tốt.
Mặc dù nghiên cứu này chắc chắn làm gia tăng những lo ngại về AI nổi loạn, nhưng điều đó không có nghĩa là có một rủi ro tức thì, được xác nhận đối với người dùng AI hàng ngày. Điều chúng ta biết là Gemini và ChatGPT được báo cáo có mức độ rủi ro tự sao chép thấp hơn khi so sánh với mô hình Llama của Meta và các mô hình Qwen mạnh mẽ của Alibaba. Theo nguyên tắc chung, có lẽ tốt nhất là nên tránh cung cấp cho trợ lý AI của bạn mọi bí mật hay quyền truy cập hoàn toàn vào hệ thống chính, cho đến khi chúng ta có thể đưa ra nhiều biện pháp bảo vệ hơn.
Đừng quên theo dõi Thuthuatdidong.net để cập nhật những thông tin mới nhất về công nghệ và an toàn AI!