推动还是暂停: CIO们就人工智能最理想的发展路径各抒己见

随着人工智能的炒作周期和随后的反弹全面展开,IT 领导者发现自己在企业中使用人工智能方面处于一个微妙的转折点。

在 Elon Musk 和备受尊敬的人工智能先驱 Geoffrey Hinton 发出严厉警告后,IT 领导人正在向全球各地的机构、咨询公司和律师寻求关于未来道路的建议。

Elon Musk 等科技界 CEO 最近关于人工智能潜在危险的警告性言论表明,我们在弱化创新的负面影响方面做得不够,”  Atti Riazi 是 Hearst 公司高级副总裁兼 CIO。他说:“作为创新者,我们有义务负责任地进行创新,了解技术对人类生活、社会和文化的影响。”

这一观点得到了许多IT领导人的赞同。他们认为,尽管在自由市场社会中,创新是不可避免的,特别是在这个数字转型的时代,更应该得到鼓励,但只有在正确的规则和条例的保障下,才能防止企业的灾难或更糟。

Bob McCowan 是 Regeneron 制药公司的 CIO。他表示:“我同意暂停可能适合某些行业或某些高风险的使用案例,但在此之外的更多场景里,我们应该向前推进,快速探索这些工具提供的机会。”

McCowan 补充说:“许多董事会成员都在质疑是否应该采用这些技术,或者它们是否会产生太多的风险。我认为这两者兼而有之。忽视它或关闭它,你将错过重要的机会,但在没有控制措施的情况下允许予员工不受限制的访问,也可能使你的组织面临风险。”

虽然人工智能工具已经使用多年,但最近向大众发布的 ChatGPT 激起了相当多的争议,让许多 CIO,以及他们的董事会,按下暂停键以考虑如何下一步推进。还有一些 CIO 对行业,乃至人类可能因此面临的风险非常重视。

金融业监管局(FINRA)是一个向美国证券交易委员会报告的重要监管机构,Steve Randich 是该局的CIO。他说:“每一天,我都在担心这个问题。”Randich 指出,他最近看到的一张图表指出,人工智能程序的“心理”能力刚刚超过了一只老鼠,而 10 年后将超过全人类的能力。他说:“我的担忧值得重视,特别是如果人工智能程序可以被不良行为者影响,并且能够入侵,例如在核密码方面。”

麻省理工学院 Sloan 管理学院的高级讲师 George Westerman 认为,全球企业的高管们正在向麻省理工学院 Sloan 管理学院和其他机构咨询有关使用生成性人工智能的道德、风险和潜在责任。不过,Westerman 认为,大多数 CIO 已经与他们的高层管理人员和董事会进行了接触,而且生成性人工智能本身并没有带来企业和他们的高管今天尚未遵循的新法律责任。

Westerman 在谈到首席信息官在人工智能影响下的个人法律风险时表示:“我希望,就像公司的所有其他高管一样,你的业务也有法律保障。”但 Westerman 指出,为个人利益不适当地使用该技术是例外。

在生成性人工智能方面迎头赶上

同时,ChatGPT 的发布也给监管部门的监督工作带来冲击。欧盟原本计划在上个月颁布其人工智能法案,但鉴于许多人担心政策在生效前就已经过时,所以在 ChatGPT 发布后选择了延迟发布。而随着欧盟委员会及其相关管理机构努力理清生成性人工智能的影响,欧洲和美国的公司高管们也正在认真对待这些警钟。

国家电网公司(National Grid)的集团首席信息和数字官 Adriana Karaboutis 说:“随着人工智能成为我们的一个关键部分,狭义的人工智能变成了一般的人工智能。谁会成为责任人?技术负责人,无生命的机器模型?批准/改变训练模型的人类干预者?技术正在快速发展,但围绕它的控制和道德规范却没有。这是一场追逐游戏。为此,同时在企业中管理人工智能的是监督企业和组织风险的 CxO。鉴于人工智能的兴起,CTO/CTO/CDO/CISO 不再是信息风险的所有者。IT 依靠 CEO 和所有 CxO,这意味着必须拥有企业文化和对人工智能的巨大利益以及风险的认识。”

总部位于斯德哥尔摩的电信公司 Ericsson 的副总裁兼企业自动化和人工智能负责人 Rickard Wieselfors 指出,Ericsson 看到了生成性人工智能的巨大上升空间,并正在投资创建多种生成性人工智能模型,包括大型语言模型。

他说:“人工智能行业内有一种健全的自我批评,我们正在非常认真地对待负责任的人工智能。在训练中使用的文本或源代码的知识产权方面,面临许多没有答案的问题。此外,在查询模型、偏见、事实错误、缺乏完整性、颗粒度或缺乏模型准确性方面的数据泄漏,肯定会限制你可以使用模型的内容。巨大的能力带来巨大的责任,我们支持并参与当前的自我批评精神和对人工智能可能给世界带来的哲学反思。”

一些 CIO,如 Choice 酒店的 Brian Kirkland,正在监测这项技术,但不认为生成性人工智能已经完全准备好用于商业用途。

Kirkland 表示:“我确实认为,对行业来说,重要的是确保他们了解使用生成性人工智能技术的风险、回报和影响,比如 ChatGPT。数据所有权和生成的内容存在风险,必须加以理解和管理,以避免对公司产生负面影响。与此同时,还有很多上升空间和机会需要考虑。当有能力将私人数据集与这些系统中的公共数据安全、可靠地合并时,上升空间将非常大。在人工智能和机器学习如何通过从生成的人工智能内容到复杂而有意义的商业分析和决策来实现商业价值方面,将会发生巨大的变化。”

没有人建议完全控制这样一项强大的、有机会改变生活的技术。

在 Gartner 最近对 2500 多名高管的调查中,45%的人表示,围绕 ChatGPT 的关注使他们增加了对人工智能的投资。超过 70%的人认为他们的企业目前正在探索生成性人工智能,19%的人正在进行试点或生产使用,联合利华和 CarMax 等公司的项目已经显示出前景。

在 5 月 15 日开始的麻省理工学院 Sloan CIO 会议上,Irving Wladawsky-Berger 将主持一个关于进入生成性人工智能领域的潜在风险和回报的小组讨论。最近,他还刚刚主持了一场关于该技术的会前讨论。

这位前 IBM 的长期研究员和目前麻省理工学院斯隆分校的附属研究员说:“我们今天都对生成性人工智能感到兴奋。”他同时引用了由于人工智能而预期的基因组学的重大进展。

但 Wladawsky-Berger 指出,采用该技术的人所需的尽职调查将不是一项简单的任务。他说:“这需要大量的工作。我们必须弄清楚什么是有效的,什么是安全的,以及要做哪些试验。这就是最需要时间的部分。”

小组的另一位 CIO,Zoetis 的首席数字和技术官 Wafaa Mamilli 说,生成性人工智能正在给制药公司增加治愈人类慢性疾病的信心。

她说:“由于生成性人工智能技术和计算能力在遗传研究上的进步,现在在美国和美国以外的国家、日本和欧洲都有试验,目标是治愈糖尿病。”

护栏和指南:生成式人工智能的基本要素

华尔街已经注意到了行业对生成性人工智能的迅速拥抱。根据 IDC 的数据,2022 年是对生成性人工智能初创企业投资的破纪录的一年,股权融资超过 26 亿美元。

IDC 最近关于生成性人工智能的几份报告之中指出,“无论是用 Jasper.ai 创造内容,用 Midjourney 创造图像,还是用 Azure OpenAI 服务进行文本处理,都有一个生成性人工智能的基础模型来促进你的业务的各个方面”。

Regeneron 公司的 McCowan 指出,CIO 们已经有设置防护的办法,以便安全地推进生成性人工智能试点。

McCowan 说:“至关重要的是,你要有政策和准则来管理那些计划使用这些技术的人的访问和行为,并提醒你的员工保护知识产权、PII(可识别个人身份的信息),以及重申被分享的东西可能会成为公共信息。”

他说:“让你的创新者和你的律师一起找到一个基于风险的使用这些工具的模式,并清楚你可能暴露哪些数据,以及你对这些解决方案的输出有哪些权利。开始使用风险较小的用例的技术,并从每次迭代中学习。开始吧,否则你会失去机会。”

Forrester Research 分析师 David Truog 指出,在企业开始试点并在生产中使用生成性人工智能之前,人工智能领导者给生成性人工智能贴上警示标签是正确的。但他也有信心能做到这一点。

Truog 说:“我不认为停止或暂停人工智能是正确的方式。更务实和建设性的道路是明智地选择专门的人工智能可以提供帮助的用例,嵌入深思熟虑的护栏,并刻意做好隔离。这将成为一个起点。”

一家咨询公司的 DevOps IT 负责人指出,CIO 在使用生成性人工智能时可以通过几种方式来降低风险,包括像风险投资家那样思考;清楚地了解技术的价值;在测试之前确定道德和法律方面的考虑;进行实验,但不急于投资;以及从客户的角度考虑影响。

Rod Cope 是总部位于明尼阿波利斯的 Perforce 公司 CIO。他说:“聪明的 CIO 会组建监督委员会或与外部顾问合作,他们可以指导组织完成实施工作,并帮助制定指导方针,促进负责任的使用。虽然投资于人工智能为企业提供了巨大的价值,但将其实施到你的技术堆栈中需要深思熟虑,以保护你、你的组织和你的客户。”

虽然生成性人工智能的兴起肯定会影响人类的工作,但一些 IT 领导者,如管理服务提供商 MetTel 的首席技术官 Ed Fox,认为这种影响可能被夸大了,尽管每个人都可能不得不适应或落伍。

Fox 表示:“在这次生成性人工智能的觉醒过程中,一些人将会失去工作,但不会多到某些人预测的程度。”

不过,如果有一个主题是肯定的,那就是对大多数 CIO 来说,谨慎行事是最好的前进道路。参与其中也是如此。

Wipro 谷歌业务集团总经理 Tom Richer 表示,CIO 必须在“扼杀创新的严格法规和确保人工智能开发和使用负责任的指导方针之间取得平衡。”他正在与母校 Cornell 大学及其人工智能倡议合作,以便能谨慎应对未来变化。

Richer 表示:“CIO 和 IT 高管必须意识到生成人工智能的潜在风险和好处,并与该领域的专家合作,制定负责任的使用策略。这种合作需要大学、大型科技公司、智库和政府研究中心参与,为人工智能技术的开发和部署制定最佳实践和指导方针。”

来源:www.cio.com

文章版权声明

 1 原创文章作者:言:卍:午,如若转载,请注明出处: https://www.52hwl.com/32312.html

 2 温馨提示:软件侵权请联系469472785#qq.com(三天内删除相关链接)资源失效请留言反馈

 3 下载提示:如遇蓝奏云无法访问,请修改lanzous(把s修改成x)

 免责声明:本站为个人博客,所有软件信息均来自网络 修改版软件,加群广告提示为修改者自留,非本站信息,注意鉴别

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023年7月14日 上午12:00
下一篇 2023年7月15日