JSON Lines
Temp
GPT - OpenAI API
How to call functions with chat models | OpenAI Cookbook
HTTP/3 From A To Z: Core Concepts — Smashing Magazine
What exactly is HTTP/3? Why was it needed so soon after HTTP/2 (which was only finalized in 2015)? How can or should you use it? And especially, how does this improve web performance? Let’s find out.
pfzhou/bida: 简单、易用、稳定、高效,便于扩展和集成的,大语言模型工程化开发框架
简单、易用、稳定、高效,便于扩展和集成的,大语言模型工程化开发框架. Contribute to pfzhou/bida development by creating an account on GitHub.
Any plan for AI assistant to be on the roadmap? · outline/outline · Discussion #4972
Having tried ChatGPT and Notion AI, I can confidently say that AI will be a tool that everyone will use to assist with writing and content generation in the very near future. It can easily double p...
Semantic search for ChatGPT embedding based answers. AI answers based on specific outline documentation! · outline/outline · Discussion #5086
Title kind of explains overall idea. Host workspace knowledge on outline as a wiki, use this wiki to provide embedding contexts (paragraphs, sentences, full documents) to chat ChatGPT AI for highly...
RManLuo/Awesome-LLM-KG: Awesome papers about unifying LLMs and KGs
Awesome papers about unifying LLMs and KGs. Contribute to RManLuo/Awesome-LLM-KG development by creating an account on GitHub.
基于知识图谱的 KG 笔记法-Pkmer
基于知识图谱的kg笔记法——在 论坛文章 中,我提出了将知识图谱理论应用到个人笔记中的观点。在文章发布后的这四个月里,我将这个思想逐步完善,终于形成了一套笔记方法——基于知识图谱的笔记法,...
OpenKG.CN – 开放的中文知识图谱
新KG视点 | 王昊奋梁磊——新一代工业级知识图谱语义框架 - 智源社区
OpenKG组织针对知识图谱和大型语言模型的融合问题,邀请业内专家撰写“大模型专辑”系列文章。该系列旨在深入探讨两者的结合方式,为人工智能提供更为全面、可靠、可控的知识处理方法。本期邀请同济大学特聘研究员王昊奋和蚂蚁集团梁磊分享“新一代工业”。
知识图谱-从入门到跑路(1)
简要说明一下,搞了知识图谱架构一年半,快两年的一些小心得,后续不定期更新其他内容;写的时候发现要描述和声明的东西不要太多,偷懒写个概述; 如何理解知识图谱什么是知识?百度:知识是符合文明方向的,人类…
知识图谱与大模型结合方法概述-云社区-华为云
《Unifying Large Language Models and Knowledge Graphs: A Roadmap》总结了大语言模型和知识图谱...
知识图谱 - 思知(OwnThink)
对话知识图谱记忆# – LangChain中文网
LangChain中文站,助力大语言模型LLM应用开发、chatGPT应用开发。
什么是知识图谱(Knowledge Graph, KG) – WuShan's Notes
AISWare KG 知识图谱管理工具 – 产品 – 亚信科技
AISWare KG是基于图数据库、图计算引擎和图可视化分析构建的一站式通用知识计算平台,提供了丰富的行业知识模型、知识推理组件,实现数据和知识的汇聚、融合、推理及复杂运算,帮助企业快速构建知识资产,实现数据价值最大化。
为什么需要知识图谱?什么是知识图谱?——KG的前世今生
标题的命名顺序可能让有的读者不太习惯。通常在介绍一个陌生事物的应用前,我们会给出其定义。之所以换个顺序,是为了不让读者一开始就接触比较冰冷生硬的概念刻板描述(后面我尽量用更具体、准确的例子来表达),另…
成长地图_知识图谱 KG_华为云
智源x清华开源FastMoE,万亿AI模型基石
易用性强、灵活性好、训练速度快
智源x清华开源FastMoE,万亿AI模型基石 - 智源社区
MoE(Mixture of Experts)是一个在神经网络中引入若干专家网络(Expert Network)的技术,也是Google最近发布的1.5万亿参数预训练模型Switch Transformer的核心技术。然而由于其对Google分布式训练框架mesh-tensorflow和Google定制硬件TPU的依赖。动态地由门网络选择k个专家网络进行激活:
MoE:通过条件计算增加模型容量
摘要 今天来读一篇关于条件计算的论文,《Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Experts Layer》,收录于 2017 年 ICLR。神经网络模型的容量( capacity),例如模型从语料中学习的知识,受限于模型的参数规模。通常,每个样本都要经历到模型所有参数的计算中。增加模型容量意味着成比例的计
清华发布SmartMoE:一键实现高性能MoE稀疏大模型分布式训练-腾讯云开发者社区-腾讯云
2023 年 7 月,清华大学计算机系 PACMAN 实验室发布稀疏大模型训练系统 SmartMoE,支持用户一键实现 MoE 模型分布式训练,通过自动搜索复杂并行策略,达到开源 MoE 训练系统领先性能。同时,PACMAN 实验室在国际顶级系统会议 USENIX ATC’23 发表长文,作者包括博士生翟明书、何家傲等,通讯作者为翟季冬教授。PACMAN 实验室在机器学习系统领域持续深入研究,SmartMoE 是继 FastMoE, FasterMoE 和 “八卦炉” 后在大模型分布式训练系统上的又一次探索。欲了解更多相关成果可查看翟季冬教授首页:https://pacman.cs.tsinghua.edu.cn/~zjd
MoE-使用文档-PaddlePaddle深度学习平台
通常来讲,模型规模的扩展会导致训练成本显著增加,计算资源的限制成为了大规模密集模型训练的瓶颈。为了解决这个问题, 《Outrageously large neural networks: The sp
将 MoE 整合进你的模型 | Colossal-AI
作者: Haichen Huang, Yongbin Li
MoE: 稀疏门控制的专家混合层
Moe,是Mixture-Of-Experts的缩写,可以在保证运算速度的情况下,将模型的容量提升>1000倍。 动机现在的模型越来越大,训练样本越来越多,每个样本都需要经过模型的全部计算,这就导致了训练成本的平方级增长。…
李留白,探索发现频道
Web3.0布道者,公众号【李留白】作者,专注区块链/元宇宙/以太坊/Dapp/NFT/智能合约/加密等新技术研究和资讯分享。
Cohere | The leading AI platform for enterprise
Cohere provides industry-leading large language models (LLMs) and RAG capabilities, tailored to meet the needs of enterprise use cases that solve real-world problems.
Elasticsearch全文搜索的使用和原理
Machine Learning Compilation — Machine Learing Compilation 0.0.1 documentation