在生成式人工智能的浪潮中,开源人工智能的战斗
开源人工智能的战斗
开源人工智能正在通过使AI模型和工具可供组织使用,迅速改变软件生态系统。这带来了许多好处,包括加速创新、提高质量和降低成本。
根据2023年的OpenLogic报告,80%的组织正在使用更多的开源软件,相比去年的77%,以便获取最新的创新、提高开发速度、减少供应商锁定和降低许可成本。
当前的开源人工智能领域仍在不断发展。谷歌(Meena、Bard和PaLM)、微软(Turing NLG)和亚马逊网络服务(Amazon Lex)等科技巨头在发布其人工智能创新方面更为谨慎。然而,一些组织,如Meta和其他基于人工智能的研究公司,正在积极开源他们的AI模型。
此外,围绕开源人工智能展开了激烈的争论,其中涉及到它挑战大型科技公司的潜力。本文旨在深入分析开源人工智能的潜在好处,并强调未来面临的挑战。
- MIT的这项AI研究展示了基于光的机器学习系统如何能产生更强大和高效的大型语言模型
- 腾讯AI实验室的研究人员推出了IP-Adapter:一种用于文本到图像扩散模型的文本兼容图像提示适配器
- Meta AI发布了SeamlessM4T:一个基础的多语言和多任务模型,可以在语音和文本之间无缝地进行翻译和转录
先驱性进展 – 开源人工智能的潜力
许多从业者认为开源人工智能的崛起是一种积极的发展,因为它使人工智能更加透明、灵活、可追溯、经济实惠和易于获取。但是,OpenAI和谷歌等科技巨头在开源其模型时非常谨慎,因为涉及商业、隐私和安全方面的考虑。通过开源,他们可能会失去竞争优势,或者不得不放弃与其数据和模型架构相关的敏感信息,而恶意行为者可能会将这些模型用于有害目的。
然而,开源人工智能模型的王冠是更快的创新。通过开源合作,一些显著的人工智能进展已经成为公众可用的。例如,Meta通过开源他们的LLM模型LLaMA,迈出了一大步。
当研究界获得LLaMA的访问权限时,它催生了进一步的人工智能突破,导致了类似Alpaca和Vicuna的衍生模型的开发。今年7月,Stability AI利用LLaMA和LLaMA 2构建了两个名为Beluga 1和Beluga 2的LLM。它们在许多语言任务(如推理、特定领域的问答和理解语言细微差别等)上展示出比当时的最先进模型更好的结果。最近,Meta推出了Code LLaMA,这是一个用于编码的开源人工智能工具,它在LLaMA 2的基础上表现出色,超过了最先进的编码任务模型。
Code LLaMA性能比较
研究人员和从业者还在增强LLaMA的能力,以与专有模型竞争。例如,Abacus AI的开源模型Giraffe和Together AI的Llama-2-7B-32K-Instruct现在可以处理32K长度的输入上下文,这在专有LLM模型如GPT-4中才能使用。此外,行业倡议,如MosaicML的开源MPT 7B和30B模型,使研究人员能够从头开始训练自己的生成式人工智能模型。
总体而言,这种集体努力已经改变了人工智能领域,促进了合作和知识共享,继续推动了突破性的发现。
开源人工智能对公司的好处
开源人工智能提供了许多好处,使其成为人工智能领域的一种引人注目的方法。开源人工智能以透明度和社区驱动的合作为特征,有潜力彻底改变我们开发和部署人工智能解决方案的方式。
以下是开源人工智能的一些好处:
- 快速开发:开源人工智能模型允许开发人员在现有的框架和架构基础上进行开发,实现新模型的快速开发和迭代。有了坚实的基础,开发人员可以在不重复造轮子的情况下创建新的应用程序。
- 增加透明度:透明度是开源的一个关键特点,提供了对底层算法和数据的清晰视图。这种可见性减少了偏见,促进了公平,从而实现更公平的人工智能环境。
- 增加协作:开源人工智能使人工智能开发民主化,促进协作,培养了一个拥有各种专业知识的多样化贡献者社区。
应对挑战 – 开源人工智能的风险
开源模式虽然具有许多优势,但也需要意识到潜在的风险。以下是与开源人工智能相关的一些关键问题:
- 监管挑战:开源人工智能模型的崛起导致了无限制的发展,带来了潜在的风险,需要谨慎监管。人工智能的广泛可及性和民主化引发了对其潜在恶意使用的担忧。根据SiliconAngle最近的一份报告,一些开源人工智能项目使用安全性较差的生成式人工智能和LLMs,给组织和消费者带来风险。
- 质量下降:开源人工智能模型虽然带来透明度和社区合作,但随着时间推移,它们可能会遭受质量下降的问题。与由专门团队维护的闭源模型不同,负担往往落在社区身上。这往往导致潜在的忽视和过时的模型版本。这种下降可能会妨碍关键应用,危及用户信任和整体人工智能进展。
- 人工智能监管的复杂性:开源人工智能模型引入了人工智能监管的新层面的复杂性。有许多因素需要考虑,例如如何保护敏感数据,如何防止模型被用于恶意目的,以及如何确保模型得到良好维护。因此,对于人工智能监管机构来说,确保开源模型被用于善良而不是为害的任务相当具有挑战性。
开源人工智能辩论的不断演变
“开源在推动创新方面起到了重要作用,因为它使更多的开发人员能够使用新技术进行开发。它还能提高安全性,因为当软件开源时,更多人可以审查它,以发现和修复潜在问题”,马克·扎克伯格在今年七月宣布LLaMA 2大型语言模型时如此说道。
另一方面,像微软支持的OpenAI和谷歌这样的主要参与者正在保持其人工智能系统的闭源状态。他们旨在获取竞争优势并减少人工智能被滥用的风险。
OpenAI的联合创始人兼首席科学家Ilya Sutskever告诉The Verge,“这些模型非常强大,它们越来越强大。在某个时候,如果有人想要的话,用这些模型造成很大的伤害将变得相当容易。随着能力的提高,不披露这些模型是有道理的。”因此,与开源人工智能模型相关的潜在风险是人类不能忽视的。
虽然能够造成人类破坏的人工智能可能还需要几十年的时间,但开源人工智能工具已经被滥用。例如,最初的LLaMA模型只是为了推进人工智能研究而发布的。但恶意用户使用它创建了传播仇恨内容(如种族歧视和刻板印象)的聊天机器人。
在开放式人工智能合作和负责任的治理之间保持平衡至关重要。这确保了人工智能的进步对社会有益,同时防范了潜在的危害。技术社区必须合作制定促进道德人工智能发展的准则和机制。更重要的是,他们必须采取措施来防止滥用,使人工智能技术成为积极变革的力量。
想要提高人工智能知识?浏览Unite.ai丰富的人工智能资源目录,增强您的知识。