?A16z宣布开源 AI 资助计划,首批支持8个开源人工智能社区_虚拟币交易所平台,数字货币,NFT
: www.en-square.com Announced the first batch of support for open source artificial wireless city announced the first batch of support for open source artificial blockchain network of wireless city Intelligent School. 比特币今日价格行情网_okx交易所app_永续合约_比特币怎么买卖交易_虚拟币交易所平台
来源:阿法兔研究笔记
原标题:《?A16Z 刚刚官宣支持8个开源人工智能社区》
A16Z相信,人工智能具有拯救世界的力量,而繁荣的开源生态系统,对于构建建设并实现这个未来,至关重要。
值得庆幸的是,开源生态系统正在逐步开始发展,大家现在看到的开源项目和模型,可以与闭源方案相媲美。数以百计的小型团队和个人,正在不断给这些开源模型做出贡献,从使这些模型更加有用、易用和高性能。
正是这些项目和付出,共同推动了开源AI技术的发展,并帮助更多人对新技术有了更深入、更全面的了解。
这些开源项目包括:
对基础 LLM 进行指令调整:instruction-tuning base LLMs
取消对 LLM 输出的审查:removing censorship from LLM outputs
为低功率机器优化模型:optimizing models for low-powered machines
为模型推理构建新颖的工具:building novel tooling for model inference
研究 LLM 的安全问题:researching LLM security issues;
等等,然而,这些项目背后的人员往往没有足够的资源来完成或长期保持他们的工作。这种情况,在AI领域比传统计算机基础设施领域更为严重,因为即使是对模型进行基本的 fine-tuning,也需要大量的 GPU 计算资源,尤其是当开源模型变得越来越大时。
为了弥补这一资源缺口,A16Z今天宣布了 a16z 开源 AI 资助计划,A16Z将通过资助(而非投资或 SAFE 票据)的方式,为一小部分开源开发者提供支持,让他们有机会在没有经济回报压力的情况下继续工作。
这里公布了首批资助对象和资助项目:
Jon Durbin(Airoboros):instruction-tuning LLMs on synthetic data
Eric Hartford:fine-tuning uncensored LLMs
Jeremy Howard(fast.ai):fine-tuning foundation models for vertical applications
Tom Jobbins(TheBloke):quantizing LLMs to run locally
Woosuk Kwon和Zhuohan Li(vLLM):library for high-throughput LLM inference
Nous Research:new fine-tuned language models akin to the Nous Hermes and Puffin series
https://nousresearch.com/
obabooga:web UI and platform for local LLMs
Teknium:synthetic data pipelines for LLM training
感谢他们为这个领域做出的贡献,正是这些开源社区的开发者,促进了人工智能领域的开放合作、学习和进步。
参考资料:https://a16z.com/2023/08/30/supporting-the-open-source-ai-community/
注册有任何问题请添加 微信:MVIP619 拉你进入群
打开微信扫一扫
添加客服
进入交流群
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。