Temp

7805 bookmarks
Custom sorting
HTTP/3 From A To Z: Core Concepts — Smashing Magazine
HTTP/3 From A To Z: Core Concepts — Smashing Magazine
What exactly is HTTP/3? Why was it needed so soon after HTTP/2 (which was only finalized in 2015)? How can or should you use it? And especially, how does this improve web performance? Let’s find out.
·smashingmagazine.com·
HTTP/3 From A To Z: Core Concepts — Smashing Magazine
Semantic search for ChatGPT embedding based answers. AI answers based on specific outline documentation! · outline/outline · Discussion #5086
Semantic search for ChatGPT embedding based answers. AI answers based on specific outline documentation! · outline/outline · Discussion #5086
Title kind of explains overall idea. Host workspace knowledge on outline as a wiki, use this wiki to provide embedding contexts (paragraphs, sentences, full documents) to chat ChatGPT AI for highly...
·github.com·
Semantic search for ChatGPT embedding based answers. AI answers based on specific outline documentation! · outline/outline · Discussion #5086
基于知识图谱的 KG 笔记法-Pkmer
基于知识图谱的 KG 笔记法-Pkmer
基于知识图谱的kg笔记法——在 论坛文章 中,我提出了将知识图谱理论应用到个人笔记中的观点。在文章发布后的这四个月里,我将这个思想逐步完善,终于形成了一套笔记方法——基于知识图谱的笔记法,...
·pkmer.cn·
基于知识图谱的 KG 笔记法-Pkmer
新KG视点 | 王昊奋梁磊——新一代工业级知识图谱语义框架 - 智源社区
新KG视点 | 王昊奋梁磊——新一代工业级知识图谱语义框架 - 智源社区
OpenKG组织针对知识图谱和大型语言模型的融合问题,邀请业内专家撰写“大模型专辑”系列文章。该系列旨在深入探讨两者的结合方式,为人工智能提供更为全面、可靠、可控的知识处理方法。本期邀请同济大学特聘研究员王昊奋和蚂蚁集团梁磊分享“新一代工业”。
·hub.baai.ac.cn·
新KG视点 | 王昊奋梁磊——新一代工业级知识图谱语义框架 - 智源社区
知识图谱-从入门到跑路(1)
知识图谱-从入门到跑路(1)
简要说明一下,搞了知识图谱架构一年半,快两年的一些小心得,后续不定期更新其他内容;写的时候发现要描述和声明的东西不要太多,偷懒写个概述; 如何理解知识图谱什么是知识?百度:知识是符合文明方向的,人类…
·zhuanlan.zhihu.com·
知识图谱-从入门到跑路(1)
AISWare KG 知识图谱管理工具 – 产品 – 亚信科技
AISWare KG 知识图谱管理工具 – 产品 – 亚信科技
AISWare KG是基于图数据库、图计算引擎和图可视化分析构建的一站式通用知识计算平台,提供了丰富的行业知识模型、知识推理组件,实现数据和知识的汇聚、融合、推理及复杂运算,帮助企业快速构建知识资产,实现数据价值最大化。
·asiainfo.com·
AISWare KG 知识图谱管理工具 – 产品 – 亚信科技
为什么需要知识图谱?什么是知识图谱?——KG的前世今生
为什么需要知识图谱?什么是知识图谱?——KG的前世今生
标题的命名顺序可能让有的读者不太习惯。通常在介绍一个陌生事物的应用前,我们会给出其定义。之所以换个顺序,是为了不让读者一开始就接触比较冰冷生硬的概念刻板描述(后面我尽量用更具体、准确的例子来表达),另…
·zhuanlan.zhihu.com·
为什么需要知识图谱?什么是知识图谱?——KG的前世今生
智源x清华开源FastMoE,万亿AI模型基石 - 智源社区
智源x清华开源FastMoE,万亿AI模型基石 - 智源社区
MoE(Mixture of Experts)是一个在神经网络中引入若干专家网络(Expert Network)的技术,也是Google最近发布的1.5万亿参数预训练模型Switch Transformer的核心技术。然而由于其对Google分布式训练框架mesh-tensorflow和Google定制硬件TPU的依赖。动态地由门网络选择k个专家网络进行激活:
·hub.baai.ac.cn·
智源x清华开源FastMoE,万亿AI模型基石 - 智源社区
MoE:通过条件计算增加模型容量
MoE:通过条件计算增加模型容量
摘要 今天来读一篇关于条件计算的论文,《Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Experts Layer》,收录于 2017 年 ICLR。神经网络模型的容量( capacity),例如模型从语料中学习的知识,受限于模型的参数规模。通常,每个样本都要经历到模型所有参数的计算中。增加模型容量意味着成比例的计
·tqnwhz.github.io·
MoE:通过条件计算增加模型容量
清华发布SmartMoE:一键实现高性能MoE稀疏大模型分布式训练-腾讯云开发者社区-腾讯云
清华发布SmartMoE:一键实现高性能MoE稀疏大模型分布式训练-腾讯云开发者社区-腾讯云
2023 年 7 月,清华大学计算机系 PACMAN 实验室发布稀疏大模型训练系统 SmartMoE,支持用户一键实现 MoE 模型分布式训练,通过自动搜索复杂并行策略,达到开源 MoE 训练系统领先性能。同时,PACMAN 实验室在国际顶级系统会议 USENIX ATC’23 发表长文,作者包括博士生翟明书、何家傲等,通讯作者为翟季冬教授。PACMAN 实验室在机器学习系统领域持续深入研究,SmartMoE 是继 FastMoE, FasterMoE 和 “八卦炉” 后在大模型分布式训练系统上的又一次探索。欲了解更多相关成果可查看翟季冬教授首页:https://pacman.cs.tsinghua.edu.cn/~zjd
·cloud.tencent.com·
清华发布SmartMoE:一键实现高性能MoE稀疏大模型分布式训练-腾讯云开发者社区-腾讯云
李留白,探索发现频道
李留白,探索发现频道
Web3.0布道者,公众号【李留白】作者,专注区块链/元宇宙/以太坊/Dapp/NFT/智能合约/加密等新技术研究和资讯分享。
·hicoldcat.com·
李留白,探索发现频道