Shadow AI Là Gì?
Nếu bạn nhớ đến sự trỗi dậy của shadow IT, bạn sẽ nhận ra sự tương đồng. Nhiều năm trước, nhân viên âm thầm mở tài khoản trên các ứng dụng như Dropbox hoặc Slack - những công cụ giúp họ làm việc nhanh hơn, ngay cả khi những ứng dụng đó không được nhóm IT của công ty phê duyệt. Ngày nay, câu chuyện này đang lặp lại, nhưng lần này, tiêu điểm là trí tuệ nhân tạo (AI).
Thực chất, shadow AI xảy ra khi nhân viên sử dụng các công cụ AI mà không có sự cho phép hoặc nhận thức của tổ chức. Điều này có thể là bất kỳ thứ gì từ ChatGPT đến Copilot hoặc Notion AI - những dịch vụ mà nhân viên tự áp dụng. Mục đích thường không phải xấu; hầu hết mọi người chỉ muốn làm nhiều hơn trong thời gian ngắn hơn. Nhưng vì những công cụ này vượt qua các kênh chính thức, chúng sống “trong bóng tối”, bên ngoài các khung tuân thủ và an ninh của công ty.
Và đây không phải là một xu hướng nhỏ. Nghiên cứu của Microsoft cho thấy gần bốn trên năm nhân viên sử dụng AI tại nơi làm việc đang mang theo các công cụ của riêng họ thay vì các công cụ được công ty phê duyệt. (Nghiên cứu của Microsoft) Nhiều người thậm chí tự chi trả chi phí đăng ký, chứng tỏ sự quyết tâm của họ trong việc áp dụng những cách làm việc thông minh hơn và nhanh hơn.
Nhược điểm? Lãnh đạo mất đi khả năng nhìn thấy. Không có hồ sơ về các công cụ đang được sử dụng, dữ liệu nào đang được tải lên, hoặc cách mà các câu trả lời do AI tạo ra đang định hình các quyết định.
Cuối cùng, shadow AI phản ánh một khoảng trống giữa nhu cầu của nhân viên và sự hỗ trợ từ công ty. Nhân viên đang tìm cách nâng cao hiệu suất của họ, và câu hỏi cấp bách cho các nhà lãnh đạo là: chúng ta nên quy định và hỗ trợ hành vi này hay phớt lờ và để nó phát triển không kiểm soát?
Rủi Ro Của Việc Sử Dụng AI Không Quản Lý
Shadow AI thường bắt đầu như một mẹo hữu ích. Một ai đó có thể yêu cầu ChatGPT chỉnh sửa một email, hoặc một quản lý có thể để Notion AI dọn dẹp một tập hợp ghi chú cuộc họp. Trên bề mặt, nó cảm giác như một chiến thắng nhanh chóng cho năng suất.
Vấn đề là mà không có sự quản lý, những mẹo này có thể biến thành một vấn đề lớn hơn. Thông tin nhạy cảm có thể bị rò rỉ vào các hệ thống bên ngoài sự kiểm soát của công ty, các quy tắc tuân thủ có thể bị vi phạm mà không ai nhận ra, và các đội có thể dựa vào các câu trả lời của AI mà không đầy đủ, không chính xác, hoặc gây hiểu lầm.
Mỗi rủi ro này đều đủ đáng lo ngại. Cùng nhau, chúng đại diện cho một cờ đỏ cho toàn bộ doanh nghiệp. Nếu không được quản lý, shadow AI có thể khiến các tổ chức phải đối mặt với các vi phạm an ninh nghiêm trọng, rắc rối về quy định, và các trở ngại cho hoạt động.
Chiến Lược Quản Lý Shadow AI
Vậy các nhà lãnh đạo nên phản ứng như thế nào với shadow AI? Cấm nó ngay lập tức hiếm khi hiệu quả - lịch sử với shadow IT đã chứng minh điều đó. Khi các tổ chức cố gắng chặn các ứng dụng đám mây như Dropbox hoặc Slack, nhân viên vẫn tiếp tục sử dụng chúng trong bóng tối. AI cũng sẽ không khác. Cách tiếp cận thông minh hơn là chấp nhận rằng nhân viên muốn có những công cụ này và xây dựng một khung cho phép sử dụng an toàn, minh bạch.
Dưới đây là một số cách thực tế để làm điều đó:
-
Định nghĩa các hướng dẫn rõ ràng về AI.
Nhân viên cần có những quy tắc rõ ràng. Làm rõ các loại thông tin nào không bao giờ được nhập vào các công cụ AI công cộng (ví dụ: hồ sơ khách hàng hoặc hợp đồng bảo mật). Mục tiêu là xây dựng niềm tin, không phải sợ hãi, để mọi người biết họ có thể sử dụng AI một cách có trách nhiệm.
-
Cung cấp bộ công cụ đáng tin cậy.
Thay vì nói “đừng sử dụng AI”, hãy chỉ cho nhân viên những nền tảng mà họ có thể sử dụng một cách an toàn. Điều này có thể là ChatGPT Enterprise, Microsoft 365 Copilot, hoặc các công cụ khác đã được kiểm tra, sẵn sàng cho ngành. Việc áp dụng chỉ thực sự xảy ra nếu các tùy chọn được phê duyệt dễ sử dụng và hiệu quả. Khi các công cụ được phê duyệt mạnh mẽ và tiện lợi, mọi người sẽ tự nhiên ưa thích chúng. Copilot của Microsoft là một ví dụ tốt: nó tích hợp trực tiếp với các ứng dụng quen thuộc như Outlook và Word trong khi vẫn giữ dữ liệu an toàn.
-
Tận dụng công nghệ giám sát.
Các công cụ an ninh như trung gian bảo mật truy cập đám mây (CASBs) và hệ thống ngăn ngừa mất dữ liệu có thể phát hiện hành vi bất thường, như khối lượng lớn dữ liệu nhạy cảm được gửi đến các dịch vụ AI bên ngoài, và can thiệp trước khi vấn đề leo thang.
-
Tập trung vào đào tạo và văn hóa.
Quản lý không chỉ là kỹ thuật - nó còn liên quan đến con người. Nhân viên cần hiểu tại sao việc sử dụng AI không được phê duyệt có thể rủi ro và cách sử dụng có trách nhiệm mang lại lợi ích cho cả họ và tổ chức. Ngay cả những buổi đào tạo ngắn cũng có thể thay đổi thái độ và biến nhân viên thành những người ủng hộ việc áp dụng AI an toàn.
-
Kết hợp AI vào quản lý rủi ro tổng thể.
Ngành bảo hiểm AI dự kiến sẽ tăng trưởng lên 141 tỷ đô la vào năm 2034, cho thấy các công ty đang nghiêm túc xem xét các rủi ro liên quan đến AI. Các doanh nghiệp có thể thực hiện các bước tương tự bằng cách lập bản đồ các điểm thất bại tiềm năng của AI, đánh giá ảnh hưởng của chúng và tạo ra các kế hoạch hành động. Việc kết hợp AI với các khung quản lý rủi ro và bảo hiểm đảm bảo công ty được chuẩn bị trong trường hợp điều gì đó xảy ra sai sót.
Bạn không thể loại bỏ sự khao khát của nhân viên đối với AI - nhưng bạn có thể hướng dẫn nó. Bằng cách cung cấp các rào cản thay vì các chướng ngại vật, các tổ chức có thể thúc đẩy đổi mới mà không phải đối mặt với rủi ro không cần thiết.
Biến Shadow AI Thành Tài Sản Chiến Lược
Shadow AI không phải là một xu hướng thoáng qua - nó là một phần của thực tế nơi làm việc hôm nay. Giống như shadow IT trước đó, nhân viên sẽ tiếp tục tìm kiếm các công cụ giúp công việc của họ dễ dàng hơn, cho dù quản lý có phê duyệt hay không. Nhưng tin tốt là: các tổ chức không cần phải coi đó là mối đe dọa. Với quản lý đúng đắn, shadow AI có thể được biến từ một trách nhiệm thành một tài sản.
Bằng cách thiết lập các cấu trúc suy nghĩ, các công ty tạo ra một sự cân bằng: nhân viên nhận được sự gia tăng năng suất mà họ mong muốn, và các nhà lãnh đạo duy trì sự giám sát về an ninh dữ liệu, tuân thủ và độ chính xác. Đó là một chiến thắng cho cả hai bên.
Cuối cùng, mọi tổ chức sẽ trải qua giai đoạn này. Những tổ chức thành công sẽ là những tổ chức chọn cách đưa AI ra khỏi bóng tối - xây dựng quy tắc, cung cấp các lựa chọn an toàn và thúc đẩy một văn hóa sử dụng có trách nhiệm. Những lãnh đạo đó sẽ giảm thiểu rủi ro và mở khóa một hệ sinh thái AI đổi mới và đáng tin cậy hơn cho tương lai.