大模型的发展速度很快,对于需要学习部署使用大模型的人来说,显卡是一个必不可少的资源。使用公有云租用显卡对于初学者和技术验证来说成本很划算。DataLearnerAI在此推荐一个国内的合法的按分钟计费的4090显卡公有云服务提供商仙宫云,可以按分钟租用24GB显存的4090显卡公有云实例,非常具有吸引力~
Phi系列大语言模型是微软开源一个小规模参数的语言模型。第一代和第二代的Phi模型参数规模都不超过30亿,但是在多个评测结果上都取得了非常亮眼的成绩。今天,微软发布了第三代Phi系列大模型,最高参数规模也到了140亿,其中最小的模型参数38亿,评测结果接近GPT-3.5的水平。
Deep Neural Networks and Tabular Data: A Survey——XGBoost依然是最优秀的算法模型
Google最新超大模型Pathways:一个会讲笑话的6400亿参数的语言模型
大型语言模型的新扩展规律(DeepMind新论文)——Training Compute-Optimal Large Language Models
6张示意图解释6种语言模型(Language Transformer)使用方式
OpenAI第二代DALL·E发布,可以使用自然语言创造和编辑图片的模型
SWE-bench Verified:提升 AI 模型在软件工程任务评估中的可靠性
Google开源CodeGemma编程大模型和RNN架构大模型RecurrentGemma,同等参数规模最强编程大模型以及更快的大模型
DeepGraph Library(DGL)发布了0.81版本
DataLearner大模型综合评测对比表!国产大模型与全球最强大模型大比拼:语义理解、数学推理同台竞技,究竟谁更厉害~