大模型的发展速度很快,对于需要学习部署使用大模型的人来说,显卡是一个必不可少的资源。使用公有云租用显卡对于初学者和技术验证来说成本很划算。DataLearnerAI在此推荐一个国内的合法的按分钟计费的4090显卡公有云服务提供商仙宫云,可以按分钟租用24GB显存的4090显卡公有云实例,非常具有吸引力~
检索增强生成(Retrieval-augmented Generation,RAG)是一种结合了检索和大模型生成的方法。它从一个大型知识库中检索与输入相关的信息,然后利用这些信息作为上下文和问题一起输入给大语言模型,并让大语言模型基于这些信息生成答案的方式。检索增强生成可以让大语言模型与最新的外部数据或者知识连接,进而可以基于最新的知识和数据回答问题。尽管检索增强生成是一种很好的补充方法,但是,如果文档切分有问题、检索不准确,结果也是不好的。
马斯克大模型企业xAI开源Grok-1,截止目前全球规模最大的MoE大模型,词汇表超过13万!
MistralAI发布了Mixtral 8×7B MoE模型的论文,更详细的参数和对比结果~
让大模型支持更长的上下文的方法哪个更好?训练支持更长上下文的模型还是基于检索增强?
可能是过去三十年来编程语言最大的革新:新的面向AI的编程语言Mojo发布~
JetBrains的IDEA打包可执行Jar文件以及maven的依赖的方法
主题模型结合词向量模型(Improving Topic Models with Latent Feature Word Representations)