IBM 开源其 Granite AI 模型——这意味着商业
许多公司声称已经开源了他们的法学硕士,但 IBM 确实做到了。方法如下。
开源大型语言模型 (LLM) 并不容易。只要问问开源倡议 (OSI) 就知道了,该组织近两年来一直致力于制定与人工智能兼容的开源定义。一些公司——例如 Meta——声称已经开源了他们的法学硕士。 (他们没有。)但是,现在 IBM 已经做到了。
IBM 通过使用来自公开数据集(例如 GitHub Code Clean、Starcoder 数据、公共代码存储库和 GitHub 问题)的预训练数据来管理 Granite 代码的开源。简而言之,IBM 竭尽全力避免版权或法律问题。 Granite Code Base 模型在 3 到 4 TB 的代码数据和自然语言代码相关数据集上进行训练。
所有这些模型均根据 Apache 2.0 许可证获得许可,用于研究和商业用途。正是最后一个词——商业——阻止了其他主要法学硕士的开源。没有其他人愿意分享他们的法学硕士好东西。
但是,正如 IBM Research 首席科学家 Ruchir Puri 所说,“我们正在通过发布性能最高、最具成本效益的代码法学硕士来改变软件的生成式 AI 格局,使开放社区能够不受限制地进行创新。”
也许没有限制,但并非没有考虑到特定的应用。
正如 IBM 生态系统总经理凯特·伍利(Kate Woolley)去年所说,Granite 模型并不是“试图满足所有人的一切。这不是为你的狗写诗。这是关于可以调整并且非常有针对性的策划模型。”具体来说,它们是用于编程的业务用例。”
这些仅解码器模型使用 116 种编程语言的代码进行训练,参数范围从 3 到 340 亿个。它们支持许多开发人员的用途,从复杂的应用程序现代化到设备上内存受限的任务。
IBM 已在 IBM Watsonx Code Assistant (WCA) 产品内部使用了这些 LLM,例如用于 IT 自动化的 Ansible Lightspeed 的 WCA 和用于现代化 COBOL 应用程序的 IBM Z 的 WCA。不是每个人都能负担得起 Watsonx,但现在,任何人都可以使用 IBM 和 Red Hat 的 InstructLab 来使用 Granite LLM。
正如红帽高级副总裁兼首席产品官 Ashesh Badani 所说,InstructLab 将“降低 GenAI 在混合云中面临的许多障碍,从有限的数据科学技能到所需的大量资源。”重点是降低想要使用法学硕士的开发人员的入门级别。
有多低?正如马特·希克斯 (Matt Hicks) 在红帽峰会上所说:“仅仅一年前,与高端、相当奇特的硬件相结合的功能现在可以在笔记本电脑上运行。曾经花费数亿美元运行的训练技术现在已经可以在笔记本电脑上运行了。”被复制了几千个。”
例如,除了 InstructLab 之外,您还可以使用 Ollma 在本地运行 LLM。正如 Bala Priya C 在 KDnuggets 中所解释的那样,“有了 Ollama,运行 LLM 所需的一切(模型权重和所有配置)都被打包到一个模型文件中。想想适用于 LLM 的 Docker。”这些模型可在 Hugging Face、GitHub、Watsonx.ai 和 Red Hat Enterprise Linux (RHEL) AI 等平台上使用。
IBM 预计,程序员除了使用 Granite LLM 编写代码之外,还可以通过使用这些 LLM 创建测试以及查找和修复错误来节省时间和精力。 “开发人员日常工作中的许多日常但重要的任务——从生成单元测试到编写文档或运行漏洞测试——都可以通过这些模型实现自动化。
除了帮助开发人员之外,IBM 还看到了 Granite 模型的商业利益,因为与许多其他模型不同,它们的许可是明确的,模型的训练方式也是如此。此外,数据还经过清理和过滤,以排除仇恨、辱骂和亵渎语言。
因此,如果您的公司出于法律原因犹豫是否要探索使用 AI 来构建程序,IBM 刚刚为您提供了改进软件开发工作所需的开源工具。尝试一下。你们中的一些人会用这些花岗岩块建造伟大的东西。