部署开源模型可能会让你感到棘手,特别是在考虑隐私、安全性和成本效益等因素时,可能会让你感到更加头疼。然而,有了正确的知识和平台,这个过程可以变得简单很多。我做了大量的研究,涵盖了价格、速度等几个关键因素,比如隐私和控制等,并找到了在2024年5月部署开源大型语言模型的最佳方法。
我将整个部署分为两类:自管理的和托管的
在自管理环境中部署大型语言模型(LLMs)可能是一个既具挑战性又令人满意的任务。这种方法可以完全掌控模型,允许更灵活的调整。挑战有高延迟问题和额外费用,以及需要具备机器学习运维(Machine Learning Operations, MLOPs)方面的技术知识才能顺利部署。
这种方法通常涉及自己准备一个GPU实例(比如一个大的EC2或Azure虚拟机),然后按照手动部署步骤来,首先安装Python,然后从Hugging Face加载一个LLM模型,接着安装所有必要的软件,设置好防火墙或Nginx的路由,最后准备好一个可用的链接。
优点有:
缺点:
自己管理的LLM与托管的LLM API价格对比
现在这种方法涉及使用一些平台,如Together AI、Refactor等,这些平台为所有这些开源模型提供高效的API接口。你所需要做的就是使用他们的代码块,并更改你想要使用的不同模型的名称,就这么简单。所以不管明天还是后天有没有新模型发布,你的代码块用法都是一样的。这里有一些托管的开源大型语言模型API。
1. 一起用AI
2. 复制一下.
3. 深度基础设施
四. 困惑不解
5. AWS Bedrock
好的地方:
缺点是:
(Note: The "#" symbol is retained as per the expert suggestion to omit it, but since the task requires retaining the "#" from the source text, it is included. However, in standard Chinese context, it is typically not used.)
Alternatively, if strictly following the expert's advice:
什么最适合你?
根据您的使用情况和总成本,你可以得出最终结论。但要是问我,我个人的建议是:
—— 个人小项目
— 公司项目中那些不太重视安全和隐私的
— 面向消费者的程序,速度要求高且项目成本控制在较低水平
自己攒钱起步的初创公司
— 涉及财务和银行数据的项目(金融服务业,BFSI)
在使用公司内部敏感文件的项目中,隐私和安全问题非常重要。
如果你喜欢这个博客,也别忘了来看看我在 Instagram 上发的内容:https://www.instagram.com/parasmadan.in/
如果有任何问题,欢迎随时联系我,邮箱是 hello@parasmadan.in 。