导读 为了在不断增长、竞争异常激烈的人工智能领域争得一席之地,IBM 本周在其最近推出的 Watsonx 数据科学平台上推出了新的生成式人工智能模型和功能。这些新模型被称为 Granite 系列模型,似乎可以被归类为标准的大型语言模型(LLM),与 OpenAI 的 GPT-4 和 ChatGPT 类似,能够总结、分析和生成文本。

IBM 几乎没有提供有关 Granite 的详细信息,因此无法将这些模型与竞争对手的 LLM(包括 IBM 自己的 LLM)进行比较。但该公司声称,它将在 2022 年第三季度推出 Granite 系列模型之前,披露用于训练该模型的数据,以及用于过滤和处理这些数据的步骤。希望该公司能做到这一点。

在 Watsonx.ai(Watsonx 的组件,可让客户在部署后测试、部署和监控模型)的其他部分,IBM 正在推出 Tuning Studio,这是一款允许用户根据自己的数据定制生成式人工智能模型的工具。

利用Tuning Studio,IBM Watsonx的客户可以对模型进行微调,以适应新任务,只需100到1000个示例。一旦用户指定了任务并提供了所需数据格式的标注示例,他们就可以通过 IBM 云的 API 部署模型。

Watsonx.ai 即将推出的还有表格数据(关系数据库中的行和列集合)合成数据生成器。IBM 在一份新闻稿中称,通过从自定义数据模式和内部数据集生成合成数据,公司可以使用生成器提取洞察力,用于人工智能模型的训练和微调,同时”降低风险”。目前还不清楚”降低风险”的确切含义,因为使用合成数据训练人工智能存在一系列隐患。

IBM 还将在 Watsonx.data 中推出新的生成式人工智能功能,该公司的数据存储允许用户访问数据,同时应用查询引擎、治理、自动化以及与现有数据库和工具的集成。从 2023 年第四季度开始,作为技术预览的一部分,客户将能够通过一个类似聊天机器人的自助服务工具,为人工智能”发现、增强、可视化和完善”数据。

IBM对具体细节再次语焉不详。但能够想象的是一种类似于 ChatGPT 的体验,尽管它以数据可视化和转换为重点。

IBM 表示,大约在同一时间(2023 年第四季度),Watsonx.data 将获得矢量数据库功能,以支持检索增强生成(RAG)。RAG 是一个人工智能框架,通过将模型建立在外部知识源的基础上,提高 LLM 生成的响应质量,这对 IBM 的企业客户来说显然非常有用。

在其他重大新闻方面,IBM 正在进行 Watsonx.governance 的技术预览,这是一个工具包–用该公司相当含糊的话说–提供了保护客户隐私、检测模型偏差和漂移以及帮助组织满足道德标准的机制。从下周开始,IBM 将推出智能修复(Intelligent Remediation)功能,该公司表示,该功能将利用生成式人工智能模型来帮助 IT 团队总结事件并提出工作流程建议,以帮助实施解决方案。

IBM 产品高级副总裁 Dinesh Nirmal 在一份新闻稿中说:”正如 watsonx 平台在推出后短短几个月内不断发展所证明的那样,我们将在整个人工智能生命周期内为客户提供支持。作为转型合作伙伴,IBM 正在与客户合作,帮助他们以安全、可信的方式扩展人工智能–从帮助他们建立数据战略的基础要素,到为他们的特定业务用例调整模型,再到帮助他们管理模型。”

当然,IBM 也面临着压力,需要证明自己能够在拥挤的人工智能领域有所作为。

在公司第二财季,IBM 公布的营收不及分析师预期,原因是公司基础设施业务部门的增长放缓幅度超过预期。营收缩减至 154.8 亿美元,同比下降 0.4%,略低于分析师一致预期的第二季度销售额 155.8 亿美元。

在财报电话会议上,IBM 首席执行官阿尔文德-克里希纳(Arvind Krishna)反复强调了人工智能对 IBM 未来增长的重要性,并断言企业正在以健康的速度签约使用 IBM 的混合云和人工智能技术,包括 Watsonx。克里希纳说,截至7月Watsonx开始推出时,已有150多家企业客户在使用Watsonx,其中包括三星和花旗。

“我们将继续满足客户寻求值得信赖的企业人工智能解决方案的需求,我们对最近推出的 Watsonx 人工智能平台的反响尤为兴奋。最后,我们对今年全年的收入和自由现金流增长预期仍然充满信心,”克里希纳在财报电话会议上说。

原文来自:http://www.linuxeden.com/a/126086

本文地址:https://www.linuxprobe.com/itcgscsrgzng.html编辑:薛鹏旭,审核员:清蒸github

Linux命令大全:https://www.linuxcool.com/

Linux系统大全:https://www.linuxdown.com/

红帽认证RHCE考试心得:https://www.rhce.net/