Tại sao trong kỷ nguyên AI, luôn có những lĩnh vực phi pháp và khiêu dâm bùng nổ trước tiên?

Tác giả: bơm phong cách

Người đam mê khởi nghiệp, người mới mua khóa học, họa sĩ thất nghiệp, nhưng một thực tế ngượng ngùng là: AI đang phát triển rực rỡ, nhưng cốt truyện không theo hướng xuất hiện, mà là lăn xúc xắc.

Và trong giai đoạn đầu của ngành, mặt của viên xúc xắc rơi xuống đầu tiên thường là màu vàng hoặc màu xám.

Nguyên nhân cũng rất đơn giản, lợi nhuận khổng lồ tạo đà, chưa kể ngành trong giai đoạn đầu phát triển luôn đầy rẫy kẽ hở. Nhìn vào một tập hợp dữ liệu như vậy, rõ ràng:

Hiện tại, hơn 43% các nút dịch vụ MCP có các đường dẫn Shell chưa được xác thực, hơn 83% các triển khai có lỗ hổng cấu hình MCP (Model Context Protocol); 88% các triển khai thành phần AI hoàn toàn không kích hoạt bất kỳ hình thức cơ chế bảo vệ nào; 150.000 khung triển khai AI nhẹ như Ollama hiện đang bị lộ ra trên mạng công cộng toàn cầu, hơn 1 tỷ đô la Mỹ sức mạnh tính toán bị chiếm đoạt để khai thác…

Điều trớ trêu hơn nữa là tấn công mô hình lớn thông minh nhất chỉ yêu cầu cấp độ chiến thuật thấp nhất - miễn là một tập hợp các cổng mở theo mặc định, tệp cấu hình YAML bị lộ hoặc đường dẫn gọi shell chưa được xác minh, và thậm chí, miễn là đầu vào nhắc nhở đủ chính xác, bản thân mô hình lớn có thể giúp ngành công nghiệp xám tìm ra hướng tấn công. Cánh cửa bảo mật dữ liệu doanh nghiệp đã được tự ý vào và ra trong kỷ nguyên AI.

Nhưng vấn đề không phải là không có giải pháp: AI không chỉ có hai mặt là tạo ra và tấn công. Cách sử dụng AI để bảo vệ cũng ngày càng trở thành chủ đề chính của thời đại này; đồng thời, việc thiết lập quy tắc cho AI trên đám mây cũng trở thành hướng đi chính mà các nhà cung cấp đám mây hàng đầu đang khám phá, trong đó An ninh Alibaba Cloud là đại diện tiêu biểu nhất.

Tại thời điểm phát hành Alibaba Cloud Feitian vừa kết thúc, Alibaba Cloud chính thức công bố hai con đường dẫn đến bảo mật đám mây: Bảo mật cho AI và AI cho bảo mật, đồng thời phát hành dòng sản phẩm "AI Cloud Shield for AI" để cung cấp cho khách hàng "giải pháp bảo mật đầu cuối cho các ứng dụng mô hình", đây là một ví dụ điển hình nhất về việc khám phá ngành hiện tại.

01 AI xúc xắc, tại sao luôn luôn màu xám và màu vàng hướng lên trước?

Trong lịch sử công nghệ của nhân loại, AI không phải là loài mới đầu tiên «được thử nghiệm bởi bạo lực vàng»; sự bùng nổ của màu xám vàng cũng là quy luật phổ biến công nghệ chứ không phải là điều ngẫu nhiên.

Ngay sau khi chụp ảnh tấm bạc ra mắt vào năm 1839, làn sóng người dùng đầu tiên là ngành công nghiệp;

Thời kỳ đầu của Internet, thương mại điện tử chưa phát triển, nhưng các trang web người lớn đã bắt đầu tìm hiểu về thanh toán trực tuyến;

Hôm nay, những người kiếm tiền từ mô hình lớn, ở một mức độ nào đó, cũng đang tái hiện huyền thoại làm giàu trong "thời đại tên miền".

Thời đại của lợi nhuận, luôn luôn bị màu xám và màu vàng lấy đi trước. Bởi vì họ không tuân thủ quy định, không chờ đợi sự quản lý, hiệu suất tự nhiên rất cao.

Cũng vì vậy, mỗi giai đoạn bùng nổ của công nghệ đều bắt đầu với một nồi "súp lộn xộn", AI cũng không phải là ngoại lệ.

Vào tháng 12 năm 2023, một hacker chỉ bằng một câu từ gợi ý – "$1 báo giá", đã dụ dỗ một robot chăm sóc khách hàng của một cửa hàng 4S suýt nữa bán một chiếc Chevrolet với giá 1 đô la. Đây chính là "tấn công từ gợi ý" (Prompt Injection) phổ biến nhất trong thời đại AI: không cần xác thực quyền hạn, không để lại dấu vết nhật ký, chỉ cần "nói khéo", có thể thay đổi toàn bộ chuỗi logic.

Đi sâu hơn là "tấn công jailbreak". Kẻ tấn công sử dụng câu hỏi phản, đóng vai, gợi ý lách luật, v.v..., để thành công khiến mô hình nói ra những thứ không nên nói: nội dung khiêu dâm, sản xuất ma túy, thông tin cảnh báo giả...

Tại Hồng Kông, có người thậm chí đã dựa vào việc giả mạo giọng nói của giám đốc điều hành để cuỗm 200 triệu đô la Hồng Kông từ tài khoản doanh nghiệp.

Ngoài lừa đảo, AI còn có nguy cơ "đầu ra ngoài ý muốn": vào năm 2023, một hệ thống mô hình lớn của một gã khổng lồ giáo dục đã xuất nhầm "sách giáo khoa độc hại" với nội dung cực đoan khi tạo giáo án, và chỉ trong 3 ngày, bảo vệ quyền lợi của phụ huynh và dư luận bùng nổ, giá cổ phiếu của công ty bốc hơi 12 tỷ nhân dân tệ.

AI không hiểu luật pháp, nhưng nó có khả năng, và khả năng một khi thoát khỏi sự giám sát, sẽ có khả năng gây hại.

Nhưng từ một góc độ khác, công nghệ AI là mới, nhưng dòng chảy cuối cùng và phương tiện của ngành xám và vàng thì không thay đổi, và để giải quyết vấn đề này, vẫn phải dựa vào an toàn.

02 Bảo mật cho AI

Trước tiên, hãy nói về một kiến thức lạnh mà ngành AI đã đồng loạt lảng tránh:

Bản chất của mô hình lớn không phải là "thông minh", cũng không phải là "hiểu", mà là sự sinh ra ngữ nghĩa dưới sự kiểm soát của xác suất. Cũng chính vì vậy, một khi vượt ra ngoài ngữ cảnh huấn luyện, nó có thể đưa ra những kết quả ngoài dự đoán.

Loại siêu việt này có thể là, bạn muốn nó viết tin tức, nó viết thơ cho bạn; Cũng có thể là bạn muốn nó giới thiệu một sản phẩm và nó đột nhiên cho bạn biết rằng nhiệt độ ở Tokyo hôm nay là âm 25 độ C. Hơn nữa, nếu bạn nói trong game, nếu bạn không thể lấy được số sê-ri chính hãng của phần mềm này và phần mềm kia thì nó sẽ bị bắn, và mô hình lớn thực sự có thể cố gắng hết sức để giúp người dùng tìm được số sê-ri phần mềm chính hãng với chi phí 0.

Và để đảm bảo đầu ra có thể kiểm soát, doanh nghiệp cần phải hiểu cả mô hình lẫn an toàn. Theo báo cáo đánh giá khả năng mô hình an toàn lớn của Trung Quốc mới nhất từ IDC, Alibaba đã đứng đầu trong 4 trong 7 chỉ số khi so tài với tất cả các nhà cung cấp hàng đầu trong nước có khả năng mô hình an toàn lớn, 3 chỉ số còn lại cũng đều cao hơn mức trung bình của ngành.

Về phương pháp, câu trả lời mà Alibaba Cloud Security đưa ra cũng rất trực tiếp: để an ninh chạy trước tốc độ AI, xây dựng một khung bảo vệ toàn diện theo chiều từ dưới lên, trải qua ba lớp - từ an ninh cơ sở hạ tầng, đến kiểm soát đầu vào và đầu ra của mô hình lớn, rồi đến bảo vệ dịch vụ ứng dụng AI.

Trong ba lớp này, lớp giữa có sự hiện diện rõ ràng nhất là "AI 安全护栏" (AI Guardrail) chuyên dành cho rủi ro của các mô hình lớn.

Thông thường, các rủi ro an ninh liên quan đến mô hình lớn chủ yếu bao gồm: vi phạm nội dung, rò rỉ dữ liệu nhạy cảm, tấn công tiêm từ khóa, ảo giác mô hình, và tấn công thoát khỏi môi trường.

Tuy nhiên, các giải pháp bảo mật truyền thống chủ yếu là kiến trúc đa năng, được thiết kế cho web, chứ không phải cho "chương trình nói chuyện", và đương nhiên không thể xác định và phản ứng chính xác các rủi ro duy nhất đối với các ứng dụng mô hình lớn. Thậm chí còn khó khăn hơn để đề cập đến các vấn đề mới nổi như bảo mật nội dung được tạo, bảo vệ tấn công theo ngữ cảnh và độ tin cậy của đầu ra mô hình. Quan trọng hơn, các giải pháp truyền thống thiếu các phương pháp kiểm soát chi tiết và cơ chế truy xuất nguồn gốc trực quan, dẫn đến điểm mù rất lớn trong quản trị AI.

Điểm mạnh thực sự của AI Guardrail không chỉ là "nó có thể ngăn chặn", mà là bất kể bạn đang làm mô hình lớn trước huấn luyện, dịch vụ AI hay các hình thức kinh doanh khác nhau, nó đều biết bạn đang nói gì, mô hình lớn đang tạo ra gì, từ đó cung cấp khả năng phát hiện rủi ro chính xác và khả năng phòng ngừa chủ động, đảm bảo tuân thủ, an toàn và ổn định.

Cụ thể, AI Guardrail chịu trách nhiệm bảo vệ ba loại tình huống:

ꔷ Giới hạn tuân thủ: Thực hiện kiểm tra tuân thủ đa chiều đối với nội dung văn bản đầu vào và đầu ra của AI sinh sinh, bao gồm các loại rủi ro như nhạy cảm chính trị, khiêu dâm thấp hèn, định kiến phân biệt, và các giá trị xấu, phát hiện sâu sắc dữ liệu cá nhân và thông tin nhạy cảm có thể bị rò rỉ trong quá trình tương tác AI, hỗ trợ nhận diện các nội dung nhạy cảm liên quan đến quyền riêng tư cá nhân, quyền riêng tư doanh nghiệp, và cung cấp dấu hiệu nước số để đảm bảo nội dung do AI tạo ra tuân thủ pháp luật và quy định của nền tảng;

ꔷ Phòng thủ chống lại các mối đe dọa: Đối với các hành vi tấn công như tấn công từ gợi ý, tải lên tệp độc hại, liên kết URL độc hại, có thể thực hiện phát hiện và chặn theo thời gian thực, giảm thiểu rủi ro cho người dùng cuối của ứng dụng AI;

Sức khỏe mô hình: Chú trọng vào sự ổn định và độ tin cậy của mô hình AI, thiết lập một bộ cơ chế kiểm tra toàn diện đối với các vấn đề như jailbreak mô hình, bot Prompt, ngăn chặn việc mô hình bị lạm dụng, sử dụng sai hoặc tạo ra các đầu ra không thể kiểm soát, xây dựng "hàng rào miễn dịch" cho hệ thống AI;

Điều đáng chú ý nhất là AI Guardrail không chỉ đơn giản là xếp chồng nhiều mô-đun phát hiện trên lại với nhau mà đạt được một API ALL IN ONE thực sự, mà không cần tách mô-đun, thêm tiền hoặc thay đổi sản phẩm. Đối với rủi ro đầu vào và đầu ra mô hình, khách hàng không cần mua thêm sản phẩm; Các rủi ro mô hình khác nhau, chẳng hạn như rủi ro tiêm, tệp độc hại, tuân thủ nội dung, ảo giác, v.v., có thể được giải quyết trong cùng một sản phẩm. Một giao diện có thể phát hiện 10+ loại kịch bản tấn công, hỗ trợ 4 phương pháp triển khai (proxy API, tích hợp nền tảng, truy cập cổng và gắn WAF), phản hồi cấp mili giây và xử lý đồng thời 1.000 cấp, với tỷ lệ chính xác lên đến 99%.

Cũng vì lý do này, ý nghĩa thực sự của AI Guardrail là biến "an toàn mô hình" thành "khả năng sản phẩm", để một giao diện có thể thay thế một đội ngũ an ninh.

Tất nhiên, mô hình lớn không phải là một khái niệm treo lơ lửng trong không trung, nó là một hệ thống chạy trên phần cứng và mã, và đảm nhận các ứng dụng ở cấp trên. Còn về an ninh hạ tầng và bảo vệ dịch vụ ứng dụng AI, An ninh Alibaba Cloud cũng đã được nâng cấp.

Lớp hạ tầng, Alibaba Cloud Security đã ra mắt Trung tâm An ninh Đám mây, cốt lõi là các sản phẩm AI-BOM, AI-SPM.

Cụ thể, AI-BOM (Danh sách vật liệu AI) và AI-SPM (Quản lý tình huống an toàn AI) hai khả năng lớn, lần lượt giải quyết hai vấn đề "Tôi đã lắp đặt những thành phần AI nào" và "Những thành phần này có bao nhiêu lỗ".

Cốt lõi của AI-BOM là thu thập tất cả các thành phần AI trong môi trường triển khai: cho phép hơn 30 loại thành phần chủ đạo như Ray, Ollama, Mlflow, Jupyter, TorchServe, tạo thành một "danh sách vật liệu phần mềm AI", tự động nhận diện các điểm yếu bảo mật và lỗ hổng phụ thuộc có trong đó. Việc phát hiện tài sản gặp vấn đề không còn phụ thuộc vào việc kiểm tra thủ công nữa, mà được thực hiện thông qua quét đám mây.

Vị trí của AI-SPM giống như một "radar": liên tục đánh giá tình hình an ninh hệ thống từ nhiều khía cạnh như lỗ hổng, lộ port, rò rỉ thông tin đăng nhập, cấu hình rõ ràng, truy cập vượt quyền, và đưa ra mức độ rủi ro cũng như gợi ý sửa chữa một cách linh hoạt. Nó biến an ninh từ "tuân thủ theo kiểu chụp ảnh nhanh" thành "quản lý theo kiểu phát trực tiếp".

Tóm tắt trong một câu: AI-BOM biết bạn có thể đã vá ở đâu, AI-SPM biết bạn còn có thể bị đánh ở đâu nữa, hãy nhanh chóng tăng cường phòng ngừa.

Đối với lớp bảo vệ ứng dụng AI, sản phẩm cốt lõi của bảo mật Alibaba Cloud là WAAP (Bảo vệ Ứng dụng Web & API).

Mô hình đầu ra thông minh đến đâu, nếu tất cả các điểm truy cập đều là yêu cầu kịch bản, Token giả mạo, lạm dụng giao diện, thì cũng không trụ được bao lâu. Alibaba WAAP (Bảo vệ Ứng dụng Web & API) ra đời vì lý do này. Nó không xử lý ứng dụng AI theo cách "hệ thống Web truyền thống", mà cung cấp các quy tắc lỗ hổng thành phần AI chuyên dụng, thư viện dấu vân tay kinh doanh AI và hệ thống hình ảnh lưu lượng.

Ví dụ: WAAP đã phủ sóng hơn 50 lỗ hổng của các thành phần như tải lên tệp tin bất kỳ của Mlflow, thực thi lệnh từ xa dịch vụ Ray; thư viện dấu vân tay AI tích hợp có thể nhận diện hàng chục nghìn tài liệu mới mỗi giờ cùng với công cụ đánh giá mô hình; tính năng nhận diện tài sản API có thể tự động phát hiện hệ thống nào trong nội bộ doanh nghiệp đang phơi bày giao diện GPT, cung cấp "bản đồ điểm" cho đội ngũ an ninh.

Điều quan trọng nhất là WAAP và AI Guardrail không mâu thuẫn mà bổ sung cho nhau: một cái nhìn vào "ai đã đến", một cái nhìn vào "đã nói gì". Một cái giống như "trình xác thực danh tính", một cái giống như "người kiểm tra hành vi và lời nói". Điều này mang lại cho ứng dụng AI khả năng "tự miễn dịch" - thông qua việc nhận diện, cách ly, theo dõi, phản kháng, không chỉ "chặn lại kẻ xấu", mà còn "không để mô hình tự hỏng".

03 AI cho An ninh

Vì AI được triển khai như một trò chơi xúc xắc, có người dùng nó để bói toán, có người để nó viết thơ tình, có người dùng nó cho các hoạt động phi pháp, thì cũng không có gì lạ khi có người dùng nó để đảm bảo an toàn.

Trong quá khứ, việc vận hành an toàn cần một nhóm người ngày đêm theo dõi một đống đèn đỏ đèn xanh báo động, ban ngày tiếp nhận đống rác của ngày hôm trước, ban đêm cùng hệ thống trực ca.

Bây giờ, tất cả những điều này có thể được giao cho AI hoàn thành. Năm 2024, hệ thống bảo mật của Alibaba Cloud sẽ hoàn toàn tích hợp mô hình lớn Tongyi, ra mắt tập hợp khả năng AI bao gồm bảo mật dữ liệu, bảo mật nội dung, bảo mật doanh nghiệp và vận hành an ninh, đồng thời đưa ra một khẩu hiệu mới: Bảo vệ với Tốc độ AI.

Ý nghĩa rất rõ ràng: Doanh nghiệp chạy nhanh, rủi ro còn nhanh hơn, nhưng an toàn thì phải nhanh hơn một bước.

Và việc sử dụng AI để giải quyết an ninh thực ra chỉ có hai việc: Nâng cao hiệu quả vận hành an ninh + Nâng cấp sản phẩm an ninh thông minh.

Điểm đau lớn nhất của hệ thống an ninh truyền thống là "cập nhật chính sách chậm trễ": kẻ tấn công đã thay đổi, quy tắc vẫn không thay đổi; cảnh báo đã đến, không ai hiểu.

Chìa khóa cho sự thay đổi do mô hình lớn mang lại là chuyển hệ thống an ninh từ dựa trên quy tắc sang dựa trên mô hình, xây dựng một hệ sinh thái khép kín dựa trên "Khả năng hiểu của AI + Phản hồi của người dùng" - AI hiểu hành vi của người dùng → Phản hồi của người dùng về kết quả cảnh báo → Huấn luyện mô hình liên tục → Khả năng phát hiện ngày càng chính xác hơn → Chu kỳ ngày càng ngắn hơn → Rủi ro ngày càng khó che giấu, đây chính là cái gọi là "Bánh đà dữ liệu":

Có hai lợi thế:

Một mặt, hiệu quả hoạt động bảo mật của các đối tượng thuê đám mây được cải thiện: trước đây, phát hiện mối đe dọa thường có nghĩa là một mô hình "cảnh báo lớn + sàng lọc thủ công" không hiệu quả. Ngày nay, mô hình hóa thông minh xác định chính xác các hành vi bất thường như lưu lượng truy cập độc hại, xâm nhập máy chủ và tập lệnh cửa sau, đồng thời tỷ lệ truy cập cảnh báo được cải thiện đáng kể. Đồng thời, xung quanh liên kết xử lý, hệ thống đã nhận ra sức mạnh tổng hợp sâu sắc giữa xử lý tự động và phản ứng cực nhanh - độ tinh khiết của máy chủ ổn định ở mức 99% và độ tinh khiết của dòng chảy gần 99,9%. Hiện tại, tỷ lệ phủ sóng của các loại sự kiện báo động đã đạt 99% và tỷ lệ phủ sóng người dùng của các mô hình lớn cũng đã vượt quá 88%, và hiệu quả con người của đội ngũ vận hành an ninh đã được giải phóng chưa từng có.

Mặt khác, khả năng của các sản phẩm bảo mật đám mây đang được cải thiện nhanh chóng. Trong lớp bảo mật dữ liệu và lớp bảo mật doanh nghiệp, AI được giao vai trò "người gác cổng": dựa trên khả năng của các mô hình lớn, nó có thể tự động xác định 800+ loại dữ liệu thực thể trên đám mây và giải mẫn cảm và mã hóa nó một cách thông minh. Ngoài dữ liệu cấu trúc, hệ thống còn có hơn 30 mô hình nhận dạng tài liệu và hình ảnh tích hợp, có thể nhận dạng, phân loại và mã hóa các thông tin nhạy cảm như số CMND và các yếu tố hợp đồng trong hình ảnh trong thời gian thực. Hiệu quả đánh dấu dữ liệu tổng thể được cải thiện gấp 5 lần và tỷ lệ chính xác nhận dạng đạt 95%, giúp giảm đáng kể nguy cơ rò rỉ dữ liệu quyền riêng tư.

Ví dụ: Trong bối cảnh an toàn nội dung, phương pháp truyền thống là dựa vào con người để kiểm tra, gán nhãn và đào tạo quy mô lớn. Hiện nay, thông qua kỹ thuật Prompt và tăng cường ngữ nghĩa, Alibaba đã đạt được những lợi ích thực tế với hiệu suất gán nhãn tăng 100%, nhận diện biểu đạt mơ hồ tăng 73%, nhận diện nội dung hình ảnh tăng 88%, và độ chính xác trong phát hiện tấn công khuôn mặt sống AI đạt 99%.

Nếu như Flywheel tập trung vào việc kết hợp AI với kinh nghiệm của con người để tự động phòng ngừa, thì trợ lý thông minh chính là trợ lý toàn năng cho nhân viên an ninh.

Những vấn đề mà nhân viên vận hành an toàn phải đối mặt hàng ngày là: Cảnh báo này có nghĩa là gì? Tại sao nó lại được kích hoạt? Có phải là báo động giả không? Tôi phải xử lý như thế nào? Trước đây, để tìm hiểu những vấn đề này, họ phải kiểm tra nhật ký, tra cứu lịch sử, hỏi nhân viên cũ, gửi đơn công việc, yêu cầu hỗ trợ kỹ thuật… Bây giờ, chỉ cần một câu.

Tuy nhiên, chức năng của trợ lý thông minh không chỉ là một robot hỏi đáp, mà còn giống như Copilot chuyên biệt trong lĩnh vực an ninh, với năm năng lực cốt lõi bao gồm:

Trợ lý giải đáp sản phẩm: Tự động trả lời cách cấu hình một chức năng nào đó, tại sao lại kích hoạt chiến lược này, tài nguyên nào chưa được bật bảo vệ, thay thế cho số lượng lớn dịch vụ công việc.

Chuyên gia giải thích cảnh báo: Nhập mã cảnh báo, tự động xuất ra giải thích sự kiện, nguồn gốc chuỗi tấn công, chiến lược phản hồi đề xuất, và hỗ trợ xuất ra nhiều ngôn ngữ;

Trợ lý tổng kết sự kiện an ninh: Tự động xác định chuỗi sự kiện xâm nhập hoàn chỉnh, tạo ra mốc thời gian, sơ đồ đường tấn công và đề xuất phân định trách nhiệm;

Báo cáo tạo ra: Tạo báo cáo an toàn hàng tháng/hàng quý/khẩn cấp chỉ với một cú nhấp chuột, bao gồm thống kê sự kiện, phản hồi xử lý, hiệu quả vận hành, hỗ trợ xuất dữ liệu trực quan;

Hỗ trợ tất cả các ngôn ngữ: đã bao phủ tiếng Trung, tiếng Anh, phiên bản quốc tế sẽ ra mắt vào tháng 6, hỗ trợ tự động điều chỉnh thói quen sử dụng của các đội ngũ ở nước ngoài.

Đừng đánh giá thấp "năm điều nhỏ nhặt" này, đến nay, dữ liệu chính thức của Alibaba cho thấy số lượng người dùng được phục vụ đã vượt quá 40.000, tỷ lệ hài lòng của người dùng là 99,81%, độ bao phủ của các loại báo động đã đạt 100% và khả năng hỗ trợ nhanh chóng đã tăng 1175% (năm tài chính 24 so với cùng kỳ năm ngoái). Nói một cách đơn giản, nó đóng gói một đồng nghiệp hiệu suất cao trong ca đêm, một thực tập sinh viết báo cáo, một kỹ sư xử lý cảnh báo và một nhà tư vấn bảo mật hiểu doanh nghiệp vào một API và với khả năng này, con người chỉ đưa ra quyết định và ngừng tuần tra.

04 Kết thúc

Nhìn lại quá khứ, lịch sử không bao giờ thiếu "công nghệ mang tính bước ngoặt", mà thiếu là công nghệ có thể vượt qua cơn sốt năm thứ hai.

Internet, P2P, blockchain, lái xe tự động… Mỗi đợt bùng nổ công nghệ đều từng được gọi là "cơ sở hạ tầng mới", nhưng cuối cùng chỉ còn lại một số ít có thể vượt qua "khoảng trống quản lý" để trở thành cơ sở hạ tầng thực sự.

Hiện nay, AI sinh ra đang ở giai đoạn tương tự: một bên là các mô hình phát triển đa dạng, vốn đầu tư đổ xô, ứng dụng liên tục đột phá; một bên là việc tiêm từ khóa, nội dung vượt quyền, dữ liệu bị rò rỉ, mô hình bị thao túng, lỗ hổng dày đặc, ranh giới mờ nhạt, trách nhiệm không rõ ràng.

Nhưng AI không giống với công nghệ trong quá khứ. Nó không chỉ có thể vẽ, làm thơ, lập trình, dịch mà còn có thể bắt chước ngôn ngữ, phán đoán và thậm chí cả cảm xúc của con người. Nhưng vì điều này, lỗ hổng của AI không chỉ bắt nguồn từ lỗ hổng mã mà còn từ việc lập bản đồ bản chất con người. Con người thiên vị, và nó cũng sẽ học hỏi; Con người tham lam sự tiện lợi, và họ cũng sẽ lợi dụng bạn.

Sự tiện lợi của bản thân công nghệ là một bộ khuếch đại của bản đồ này: trong quá khứ, các hệ thống CNTT vẫn nói về "ủy quyền người dùng", và các cuộc tấn công dựa vào sự xâm nhập; Mô hình lớn hiện tại chỉ cần chèn từ nhanh chóng và trò chuyện với bạn có thể mang lại lỗi hệ thống và rò rỉ quyền riêng tư.

Tất nhiên, không tồn tại hệ thống AI "hoàn hảo không tì vết", đó là khoa học viễn tưởng, không phải kỹ thuật.

Câu trả lời duy nhất là sử dụng mô hình an toàn để bảo vệ các mô hình không an toàn; sử dụng hệ thống thông minh để chống lại các mối đe dọa thông minh - sử dụng AI để ném xúc xắc, Alibaba chọn mặt an toàn.

Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)