杏彩体育官方平台CIO分享:如何在企业中驾驭生成式AI

 单片机     |      2024-04-09 14:50:24| 来源:杏彩体育app 作者:杏彩体育官网入口

  生成式AI正在大规模地为企业敞开创新的大门,但在这个新时代,高管层必须仔细监督对生成式AI的采用,以保证代码质量并减轻技术债务。

  生成式AI在起步阶段就已经改变组织并且给IT战略带来了深刻的影响。但是,虽然大型语言模型加速了工程敏捷性,但也打开了一道闸门带来了前所未有的技术债务。分析公司Red Monk首席分析师、联合创始人Stephen O’Grady表示:“生成式系统可能会加速生成的代码量,因此仅在这个基础上,技术债务就会增加。”

  但这不应该阻止CIO们探索和实施AI,Salesforce公司高级副总裁、首席信息官Juan Perez 补充说。他把AI视为一种需要适当治理、安全控制、维护和支持以及生命周期管理的应用。他表示,由于AI产品的数量不断增加,选择最合适的模型和底层数据对于支持AI之旅至关重要。

  如果实施得当,生成式AI就能够以更低的成本生产更高质量的产品。Walgreens Boots Alliance首席信息官Neal Sample表示:“问题不是AI是否会对整体业务产生积极影响,而是影响程度和速度的问题。”但他指出,要实现负责任的AI发展,政府监管和公司治理都是必要的。

  机器学习模型有潜力实现更快速的IT迭代。代码测试平台Sonar公司首席信息官Andrea Malagodi表示,至少这些模型可以自动执行那些日常的、重复性的任务,从而释放软件开发人员的带宽,让他们能够专注于更具创造性、更高级别的工作。他说:“投资生成式AI工具来支持这些团队就是对他们的成长、生产力和总体满意度的投资。”

  Palo Alto Networks公司首席信息官Meerah Rajavel补充说,生成式AI将极大地促进开发,尤其是Java、Python和C++ 等成熟编程语言的代码生成,但它的力量还不止于此。她认为,AI有助于将代码测试左移,以协助单元测试、调试和识别软件开发周期早期的错误配置。“作为CIO,为我们的开发人员提供帮助他们成功的最佳工具,这是我工作的一个关键组成部分,而AI无疑将有助于提高效率。”

  AI还可以显着推进跨部门的运营。对于无代码自动化平台公司Workato的首席信息官Carter Busse来说,AI是该公司今年IT战略的核心。但AI的好处不仅限于IT方面,它还可以为客户支持、提高生产力和推动跨团队创新等方面提供帮助。他说:“CIO的任务是帮助业务高效发展,而AI是我们向前推进的一种方式。”

  因此,代码生成并不是受益于最新AI浪潮的唯一领域。云数据仓库公司Snowflake的首席信息官和首席数据官Sunny Bedi表示,员工生产力受到的影响最大。他预测,未来所有员工都将与AI助手展开密切合作,有助于个性化的新员工入职体验、协调内部沟通以及制作创新想法原型等工作。他补充说,企业通过利用大型语言模型开箱即用的功能,还可以减少对搜索、文档提取、内容创建和审查、以及聊天机器人等操作的第三方依赖。

  生成式AI模型本身并不是造成IT债务的最大决定性因素,而是在实践中的应用方式。Sample表示:“需要仔细考虑在组织中哪些方面实施AI,以及如何实施AI,避免产生技术债务。”他补充说,当把AI模型应用于现有技术生态系统的时候(例如修改连接和在使用旧堆栈的同时集成生成式AI)积累技术债务的风险会更高。

  另一方面,如果使用得当,生成式AI可以通过重写遗留应用和自动化积压任务来帮助消除旧的技术债务。也就是说,如果没有正确的云环境和战略,CIO不应该一头扎进去。“如果组织过早地实施生成式AI,现有的技术债务可能会继续增长,或者在某些情况下变成长期的技术债务,”企业管理软件套件OnBase开发公司Hyland首席信息官Steve Watt这样示。因此他建议,制定一项计划来解决现有的技术债务,这样新的AI驱动的计划就不会崩溃。

  起初,企业在尝试AI和大型语言模型的时候可能会增加IT债务。但Busse认为,从长远来看,大型语言模型会减少债务,但这要取决于AI动态响应不断变化需求的能力。他说:“通过将AI嵌入到你的业务流程中,你将能够更快地适应流程变化,从而减少技术债务。”

  最近,人们对AI生成的代码质量提出了质疑,有报告强调,自AI助手出现以来,代码改动和代码重用的情况有所增加。Red Monk公司的O’Grady表示,AI生成的代码质量取决于很多因素,包括部署的模型、手头的用例、以及开发人员的技能。“就像人类开发人员一样,AI系统确实会输出有缺陷的代码,而且未来还将如此。”

  例如,Sonar的Malagodi引用了微软研究院最近的一项研究,该研究评估了22个模型,发现这些模型在基准测试中普遍表现不佳,暗示了训练设置中存在基本盲点。该报告解释说,虽然AI助手可以生成功能代码,但并不总是超越功能正确性的范畴,考虑到效率、安全性和可维护性等其他环境,更不用说遵守代码约定了。

  Malagodi认为,这方面还有很大的改进空间。他说:“虽然生生成式AI可以更快地生成更多行的代码,但如果质量不好,这个过程可能会变得非常耗时。”他敦促CIO和CTO采取必要措施,确保AI生成的代码是干净的。“这意味着AI生成的代码是一致的、有意的、适应性强且负责任的,从而打造安全的、可维护的、可靠且可访问的软件。”

  这些模型根源的质量问题可能会对代码输出产生不利影响。云技术智能平台Snow Software公司首席信息官Alastair Pooley表示,虽然生成式AI有潜力产生卓越的技术成果,但数据质量、模型架构和训练程序都可能导致结果不佳。他说:“训练不足的模型或者不可预见的边缘情况都可能导致输出质量下降,带来运营风险并损害系统可靠性。”所有这些都需要对输出和质量进行持续的审查和验证。

  Palo Alto Networks公司的Rajavel补充说,AI就像其他任何工具一样,结果取决于你使用哪种工具以及如何使用它。对她来说,如果没有适当的AI治理,你选择的模型可能会产生不符合产品架构和预期结果的低质量工件结果。她补充说,另一个重要因素是你要为手头的工作选择哪种AI,因为没有一种模型是放之四海而皆准的。

  除了IT债务和代码质量之外,部署生成式AI时还需要考虑一系列潜在的不利结果。“这些问题可能涉及数据隐私和安全、算法偏见、工作替代、人工智能生成内容的道德困境等,”Pooley说。

  其中一个方面,是恶意个人利用生成式AI发起攻击。Rajavel指出,网络犯罪分子已经开始利用这项技术进行大规模攻击,因为生成式AI能够起草令人信服的网络钓鱼活动并传播虚假信息。攻击者还可以针对生成式AI工具和模型本身,导致数据泄露或毒害内容输出。

  O’Grady表示:“生成式系统有可能加速并帮助攻击者,然而可以说,很多企业最大的担忧就是私有数据从封闭的厂商系统中泄露出去。”

  这些技术可以产生非常令人信服的结果,但结果可能也是充满错误的。除了模型中的错误之外,还需要考虑成本影响,并且很容易在不知不觉中或者是不必要的情况下,在AI上花费了大量的资金,无论是使用错误的模型,不了解消耗成本,还是没有有效地使用。

  Perez表示:“AI并非没有风险,它需要从头开始构建,由人类控制各个领域,以确保任何人都可以信任其结果——从最基本的用户到最有经验的工程师。”对Perez来说,另一个悬而未决的问题是AI开发和维护所有权,这也给IT团队带来了跟上创新需求的压力,因为许多IT员工缺乏时间来实施和训练AI模型和算法。

  然后就是引起主流媒体关注的结果:AI取代人类劳动力。但生成式AI将如何影响IT行业的就业情况还有待确定。“目前很难预测对就业的影响,因此这是一个潜在的担忧,”O’Grady说。

  尽管这场辩论中无疑存在多种观点,但Walgreen公司的Sample并不认为AI对人类构成生存威胁。相反,他对生成式AI改善员工生活的潜力持乐观态度。他说:“消极的观点认为,AI将会影响很多工作,但积极的观点认为,AI会让人类变得更好。最终,我认为AI将让人们不必再做那些重复性的、本可以自动化的任务,可以专注于更高级别的工作。”

  可以采用多种方法来缓解AI带来的担忧。对于Perez来说,生成式AI的质量取决于这些模型摄取的数据。他说:“如果你想要高质量的、可信的AI,你就需要高质量的、可信的数据。”然而,问题是数据常常充满错误,需要工具来集成来自不同来源的、不同格式的非结构化数据。他还强调不要局限在“参与其中”,而要让人类更多地处于驾驶座的位置上。“我将AI视为一种值得信赖的顾问,但不是唯一的决策者。”

  为了维护软件质量,还需要进行严格的测试,以检查AI生成的代码是否准确无误。为此,Malagodi鼓励企业采用“代码干净”的方法(包括静态分析和单元测试),以确保恰当的质量检查。“当开发人员专注于干净代码的最佳实践时,他们就可以确信他们的代码和软件是安全的、可维护的、可靠的且可访问的。”

  Bedi补充说,和任何新技术一样,最初的热情是需要适当谨慎心态来调和的。因此,IT领导者应该考虑有效使用AI能助手的步骤,例如可观察性工具,这些工具能够检测架构漂移,并支持为应用需求做好准备。

  Pooley表示:“生成式AI代表了技术进步迈向了一个新的时代,如果管理得当,它有可能带来巨大的好处。”不过他建议,CIO们应该在创新和固有风险之间进行平衡,尤其是必须采取控制措施和利用指南来限制因不受控制地使用这些工具而导致的数据泄露。“和很多技术机会一样,如果出现问题,CIO们发现他们自己是要承担责任的。”

  对于Sample来说,监管机构有责任充分解决AI给社会带来的风险。例如,他提到了拜登政府最近发布的一项行政命令,旨在建立新的AI安全标准。另一方面是带头制定企业指导方针来管理这种快节奏的技术,例如,Walgreens已经开始围绕AI制定治理框架了,其中包括公平、透明、安全和可解释性等考虑因素。

  Workato的Busse同样主张制定内部指令,优先考虑安全和治理。他建议对员工进行培训、制定内部行动手册、以及实施AI实验的审批流程。Pooley指出,很多企业已经成立了AI工作组,以帮助应对风险并利用生成式AI的优势。一些具有安全意识的组织正在采取更WEI 严格的措施。O’Grady补充说,为了防止渗透,很多买方还是会优先考虑本地系统。

  Perez表示:“CIO们应该带头确保他们的团队拥有恰当的培训和技能,以有利于组织的方式识别、构建、实施和使用生成式AI。”他描述了Salesforce公司的产品和工程团队是如何在AI输入和输出之间建立信任层,最大限度地降低使用这种强大技术所带来的风险。

  也就是说,有意采用AI和对其进行治理是同样重要的。Hyland公司的Watt表示:“各个组织都在急于实施AI,但并不清楚它的作用以及如何为他们的业务带来最大利益。”AI并不能解决所有问题,因此,了解这项技术可以解决哪些问题、不能解决哪些问题,这对于了解如何最大限度地解决问题来说是至关重要的。

  通过适当的检查,生成式AI将在无数领域提高敏捷性,CIO们预计,生成式AI将被用来实现切实的业务成果,例如用户体验。Perez表示:“生成式AI将让企业能够为客户创造曾经感觉不可能的体验,AI不再只是小众团队的工具,每个人都将有机会利用它来提高生产力和效率。”

  但用户体验的好处并不仅仅限于外部客户。Rajavel补充说,内部员工体验也将从中受益。她预测,经过内部数据培训的AI助手只需立即获取企业内部页面上已有的答。


杏彩体育官方平台 上一篇:动力源申请交错并联式LLC变换器专利实现单元电路之 下一篇:人工智能不发展就是最大的不安全!