Perplexity 推出两个新的在线 LLM 模式:‘pplx-7b-online’ 和 ‘pplx-70b-online’

Perplexity 推出两个新的在线 美利奴法学硕士(LLM)模式:‘pplx-7b-online’ 和 ‘pplx-70b-online’

Perplexity,一家创新的人工智能初创公司,推出了一种改变信息检索系统的解决方案。此次推出了两个全新的大语言模型(LLMs),pplx-7b-online和pplx-70b-online,通过API开辟了公共可访问的在线LLMs的先驱之路。与传统的离线LLMs(如Claude 2)不同,这些模型利用实时互联网数据,实现对查询的实时、精确响应,克服了获取最新体育比分等最新信息的困难。

Perplexity的pplx在线模型在人工智能领域具有与众不同的特点,其独特的功能在于通过API提供。虽然Google Bard、ChatGPT和BingChat等现有的LLMs在在线浏览方面取得了进展,但没有通过API扩展这种功能。公司将这种能力归功于其内部搜索基础设施,该基础设施包括一个广泛的高质量网站库,优先考虑权威来源,并采用先进的排名机制,以实时呈现相关且可信的信息。这些实时“片段”被集成到LLMs中,以促进最新的响应。这两个模型都是基于mistral-7b和llama2-70b基础模型构建的。

值得注意的是,Perplexity AI不仅将这些模型与先进技术结合,还对其进行了优化,以实现最佳性能。这个细致入微的过程涉及到利用内部数据承包商策划的多样化、一流的训练集。这个持续的改进确保了这些模型在有帮助性、准确性和新鲜度方面的优秀表现。

为了验证这些模型的有效性,Perplexity AI进行了全面评估,使用各种提示来评估有用性、准确性和实时性等因素。这些评估与OpenAI的gpt-3.5和Meta AI的llama2-70b等领先模型进行了比较,重点关注整体性能和特定标准。

这些评估的结果令人印象深刻。pplx-7b-online和pplx-70b-online在新鲜度、准确性和整体偏好方面一直表现优异。例如,在新鲜度标准下,pplx-7b和pplx-70b实现了1100.6和1099.6的估计Elo得分,超过了gpt-3.5和llama2-70b。

从现在开始,开发人员可以访问Perplexity的API,利用这些模型的独特功能创建应用程序。定价结构是基于使用量的,针对早期测试者提供特殊的计划。

Perplexity这次的创新发布引入了人工智能驱动的信息检索系统的一种范式转变。通过可访问的API引入pplx-7b-online和pplx-70b-online模型解决了现有离线LLMs的局限性,并展示了在提供准确、实时和准确信息方面的卓越性能。

  • 在此处开始使用pplx-api
  • 通过Perplexity Labs免费试用在线模型。

本文由MarkTechPost发布。