🌕 Gate 广场 · 中秋创作激励 Day 2 话题公布- #DOGE ETF上市# !
创作点亮中秋,带热门话题发帖,瓜分 $5,000 中秋好礼!🎁
立即报名查看详情 👉 https://www.gate.com/campaigns/1953
💝 新用户首次发帖并完成互动任务,即可瓜分 $600 新人奖池!
🔥 Day 2 热门话题:DOGE ETF上市
REX Shares 与 Osprey Funds 推出的 Dogecoin ETF(代码 DOJE)预计本周四正式交易,成为美国首只上市的 Dogecoin ETF!随着首只 Meme 币 ETF 的开启,未来还有哪些 Meme 币可能获得批准?对此你有何看法?快来发帖分享你的观点吧!
发帖建议:
1️⃣ 你认为 DOJE 上市会对 DOGE 短期价格产生什么影响?
2️⃣ 你预测未来还有哪些 Meme 币 ETF 可能被批准?
3️⃣ 你近期在 #DOGE# 上的交易策略是什么?有哪些成功经验或操作技巧?
快带上 #DOGE ETF上市# 和 #Gate广场创作点亮中秋# 发帖,内容越多越优质,越有机会赢取 $5,000 中秋好礼!
#ETF#
A16z宣布开源 AI 资助计划,首批支持8个开源人工智能社区
来源:阿法兔研究笔记
原标题:《A16Z 刚刚官宣支持8个开源人工智能社区》
A16Z相信,人工智能具有拯救世界的力量,而繁荣的开源生态系统,对于构建建设并实现这个未来,至关重要。
值得庆幸的是,开源生态系统正在逐步开始发展,大家现在看到的开源项目和模型,可以与闭源方案相媲美。数以百计的小型团队和个人,正在不断给这些开源模型做出贡献,从使这些模型更加有用、易用和高性能。
正是这些项目和付出,共同推动了开源AI技术的发展,并帮助更多人对新技术有了更深入、更全面的了解。
这些开源项目包括:
对基础 LLM 进行指令调整:instruction-tuning base LLMs
取消对 LLM 输出的审查:removing censorship from LLM outputs
为低功率机器优化模型:optimizing models for low-powered machines
为模型推理构建新颖的工具:building novel tooling for model inference
研究 LLM 的安全问题:researching LLM security issues;
等等,然而,这些项目背后的人员往往没有足够的资源来完成或长期保持他们的工作。这种情况,在AI领域比传统计算机基础设施领域更为严重,因为即使是对模型进行基本的 fine-tuning,也需要大量的 GPU 计算资源,尤其是当开源模型变得越来越大时。
**
**为了弥补这一资源缺口,A16Z今天宣布了 a16z 开源 AI 资助计划,A16Z将通过资助(而非投资或 SAFE 票据)的方式,为一小部分开源开发者提供支持,让他们有机会在没有经济回报压力的情况下继续工作。
这里公布了首批资助对象和资助项目:
Jon Durbin(Airoboros):instruction-tuning LLMs on synthetic data
**
**Eric Hartford:fine-tuning uncensored LLMs
**
**Jeremy Howard(fast.ai):fine-tuning foundation models for vertical applications
**
**Tom Jobbins(TheBloke):quantizing LLMs to run locally
**
**Woosuk Kwon和Zhuohan Li(vLLM):library for high-throughput LLM inference
**
**Nous Research:new fine-tuned language models akin to the Nous Hermes and Puffin series
obabooga:web UI and platform for local LLMs
**
**Teknium:synthetic data pipelines for LLM training
参考资料: