产品
Shadow AI:您的公司也可以是AI培训材料
对于许多人来说,生成的人工智能(Genai)只是小说的家庭和个人设备的尝试。但是现在,AI已深深地渗透到工作场所的生态系统 - 同时提高生产效率,这也使企业暴露于大型安全漏洞。敏感的公司数据继续以各种形式或偶然的形式流入公共AI系统,以及网络安全的领导者挣扎。一旦通过AI公共工具处理同情数据,该信息就可以成为模型培训数据并最终为其他用户服务。例如,在2023年3月,一家跨国电子制造商暴露了许多事件,员工在Chatgpt中输入了产品资源代码和其他机密数据。 MGA生成AI应用程序(例如大语言模型)的操作机制是指他们将继续从联系中学习 - 任何业务都不会愿意用自己的基本数据为AI的公共应用程序提供公共应用程序。面对公共汽车的风险在秘密和数据泄漏中,许多公司选择直接阻碍了AI的生成应用。这种培训似乎能够阻止未经授权的平台上敏感信息的流动,实际上是由更危险的AI阴影现象 - 贝格(Began)催生的,可以登录私人设备,将数据转发到个人帐户,甚至避免避免监视系统上传。影子AI:指员工使用生成AI工具(例如Chatgpt等)来处理工作的现象,未经IT企业部批准。这个概念源自其术语Shadow(Shadow IT),该概念特别指的是员工错过正式流程的技术工具。为了加剧事物,仅通过阻止访问,IT和安全经理失去了控制权,而实际上无法控制数据和隐私安全风险。这样的步骤只会杀死创新和生产力创新。 01应对AI有效风险的战略途径Ely控制使用AI员工带来的风险,有必要采用以视觉监控,员工标准管理和授权为中心的各种技术。第一步是充分了解组织在组织中的应用。通过视觉跟踪,确定了IT经理使用者使用模式,标志标志(例如尝试上传敏感数据),并评估使用AI应用程序的实际效果。如果没有这种基本的理解,管理措施就不会产生效果,因为它们无法有效控制员工与AI联系的实际情况。制定自定义策略是下一步的关键步骤。企业应避免使用大小的禁令,而应根据对场景的感知实施智能控制技术。具体而言,对于AI的公共应用程序,可以部署浏览器的分离技术 - 允许员工自动干预在处理任务任务时,随着公司的特定类型数据上传。另一种选择是将员工引导到AI认证的平台,这些平台有效地保护商业秘密,同时维护这两个功能。应当指出,应在不同的职位上实施不同的控制措施:某些研发团队可能需要对特定应用程序进行准确的许可,而金融敏感部门(例如美国)需要配置更严格的访问限制。为了防止滥用AI技术,企业必须部署强大的数据改进机制(DLP),以识别和阻止与公共或未经授权的AI平台共享敏感信息的尝试。由于意外泄漏是导致数据泄漏的主要原因AI,因此实现实时DLP保护可以开发安全线,从而大大降低了业务损失的风险。最终,公司应为员工提供特殊培训AI和相应的控制策略。培训的内容应集中在实用指南上 - 清楚地知道使用AI的使用是安全且富有成效的,哪些是高风险操作 - 并且清楚地提供了敏感数据泄漏的后果。只有通过将技术保护措施与员工的风险和责任机制整合在一起,才能建立一个完整的防御系统。 02平衡变化和安全生成的AI的方法已经完全改变了员工组织的工作模型和运营,他们带来了变革的机会,同时还伴随着重大风险。问题的关键不是否认该技术,而是以负责任的态度拥抱它。那些致力于开发视觉跟踪系统,实施准确的管理技术并继续进行员工培训的公司最终将在创新激励措施和敏感数据保护之间找到最佳的平衡。大量SSE不应在安全性和工作效率之间选择多种选择,而应创建一个生态系统,其中两者在一起并蓬勃发展。成功实现这一平衡的联想将随着数字化的快速发展而占据领先地位。通过控制AI AI的风险并开发安全有效的应用程序系统,企业可以将生成性AI从潜在的负担转变为战略机会,并为该过程中的永恒增长奠定坚实的基础。生成的AI已成为一种不可逆转的趋势。真正从中受益的将永远是那些了解其风险,建立有效的保护机制并授权员工安全申请和合规的公司。注意:文本/AI发现者,文章的来源:Niu Toshe(公共帐户ID:NETERS),本文是集合的独立观点,并不代表Yigas Dynamics的位置。
上一篇:翻译错误:解析值时遇到的意外角色:<。路径 下一篇:没有了