DevBookmark

DevBookmark

1420 bookmarks
Custom sorting
ollama与vllm的深度比对
ollama与vllm的深度比对
随着大模型的落地应用需求,各种大模型的推理框架也出现“涌现”的“输出”,目前大模型的推理框架有ollama、vllm、LMDeploy、 sglang、xinference,主流的推理框架是ollama和vllm原理: ollama的原理:底层是llam…
·zhuanlan.zhihu.com·
ollama与vllm的深度比对
使用LM Studio輕鬆在本地端以API呼叫大語言模型(LLM)
使用LM Studio輕鬆在本地端以API呼叫大語言模型(LLM)
最近上課常被問到,如何在地端環境搭建出大語言模型(LLM),並且呼叫其API。 一開始我不太理解為何會有這樣的需求(因為在地端自行搭建運行LLM的成本不一定比較低,即便可能比較安全),但被問多了,也就開始遍尋相關的解決方案,看看有沒有什麼最簡單的方式,可以讓開發人員在地端測試大...
·studyhost.blogspot.com·
使用LM Studio輕鬆在本地端以API呼叫大語言模型(LLM)
Chat | Google AI Studio
Chat | Google AI Studio
彥槿介紹的 可以直接用Gemini 2.5(額度內免費)
·aistudio.google.com·
Chat | Google AI Studio
Reparameterization trick(重参数化技巧)-CSDN博客
Reparameterization trick(重参数化技巧)-CSDN博客
文章浏览阅读9.3k次,点赞20次,收藏28次。这个确定性函数通常是一个线性变换,将从标准高斯分布(均值为0,方差为1)中采样的随机噪声与潜在变量的均值和标准差相结合。然后,通过一个神经网络或其他可微分的映射函数,将这个随机噪声向量与模型的均值和标准差参数相结合,生成最终的潜在变量。总之,“Reparameterization trick” 允许模型在训练过程中通过随机采样得到的潜在变量,同时保持了可微性,从而使生成模型更容易优化。:在生成模型中,通常会有一个随机性的潜在变量,例如高斯分布中的均值和方差,用于生成样本。_reparameterization trick
·blog.csdn.net·
Reparameterization trick(重参数化技巧)-CSDN博客
每到週末,焦慮就特別嚴重...別再為家事煩惱!這樣安排休閒時間,重燃生活熱情 - 幸福熟齡
每到週末,焦慮就特別嚴重...別再為家事煩惱!這樣安排休閒時間,重燃生活熱情 - 幸福熟齡
關於家庭,有二點同樣重要且並存的真理:第一、家庭是幸福的泉源、聖殿和安全的所在;它反映出我們的特性,顯現出我們的審美觀和我們的過去。 第二、家庭是強佔我們週末最多時間、進而摧毀它的主要元凶。
·thebetteraging.businesstoday.com.tw·
每到週末,焦慮就特別嚴重...別再為家事煩惱!這樣安排休閒時間,重燃生活熱情 - 幸福熟齡
[Day 23] 機器學習好朋友:驚不驚喜?意不意外?-資訊熵(Entropy)與NLP - iT 邦幫忙::一起幫忙解決難題,拯救 IT 人的一天
[Day 23] 機器學習好朋友:驚不驚喜?意不意外?-資訊熵(Entropy)與NLP - iT 邦幫忙::一起幫忙解決難題,拯救 IT 人的一天
大家午安~講了那麼多天模型訓練,想必大家應該都有點膩了吧?今天就來點不一樣的(其實是為了明天鋪路)。在之前的文章裡面,我們提到很多計算詞頻的方法跟變體,但是也說過這樣的計算發法有它的限制性在,所以...
·ithelp.ithome.com.tw·
[Day 23] 機器學習好朋友:驚不驚喜?意不意外?-資訊熵(Entropy)與NLP - iT 邦幫忙::一起幫忙解決難題,拯救 IT 人的一天
计算机之父图灵:当一个天才,有多难?
计算机之父图灵:当一个天才,有多难?
他的一生充满高光:是计算机科学之父、人工智能的开山鼻祖;他破解了德军的终极密码,让二战提前两年结束,拯救了上千万人的生命。 他的一生结于悲剧:由于自己的同性恋身份,触碰了英国保守社会的禁忌,因此被实…
·zhuanlan.zhihu.com·
计算机之父图灵:当一个天才,有多难?
Tensorflow③ Keras的LSTM和TF的LSTM实现的源码剖析_tf.lstm-CSDN博客
Tensorflow③ Keras的LSTM和TF的LSTM实现的源码剖析_tf.lstm-CSDN博客
文章浏览阅读8.9k次,点赞22次,收藏75次。本文详细对比分析了Keras和TensorFlow中LSTM层的实现细节,包括权重解析顺序、计算逻辑及异同点。通过具体实例,展示了如何在两种框架下手动实现LSTM,并对比了结果。
·blog.csdn.net·
Tensorflow③ Keras的LSTM和TF的LSTM实现的源码剖析_tf.lstm-CSDN博客
iT 邦幫忙::一起幫忙解決難題,拯救 IT 人的一天
iT 邦幫忙::一起幫忙解決難題,拯救 IT 人的一天
iT 邦幫忙是 IT 領域的技術問答與分享社群,透過 IT 人互相幫忙,一起解決每天面臨的靠北時刻。一起來當 IT 人的超級英雄吧,拯救下一個卡關的 IT 人
·ithelp.ithome.com.tw·
iT 邦幫忙::一起幫忙解決難題,拯救 IT 人的一天
台大李宏毅深度学习——计算图模型
台大李宏毅深度学习——计算图模型
Computational Graph实际上是一种描述计算过程的“语言”。这种语言中用node表示variable,用edge表示operation。
·samaelchen.github.io·
台大李宏毅深度学习——计算图模型
Day 17:GRU (Gated Recurrent Unit) 概念介紹與實作 - iT 邦幫忙::一起幫忙解決難題,拯救 IT 人的一天
Day 17:GRU (Gated Recurrent Unit) 概念介紹與實作 - iT 邦幫忙::一起幫忙解決難題,拯救 IT 人的一天
前言 原來還想多介紹幾個應用,但是,一直擔心忘了另一個RNN的變形 -- GRU,所以,還是先把它處理掉,才好 focus 在應用上。另一方面,LSTM 執行速度非常慢,如果改用 GRU,希望測試可以...
·ithelp.ithome.com.tw·
Day 17:GRU (Gated Recurrent Unit) 概念介紹與實作 - iT 邦幫忙::一起幫忙解決難題,拯救 IT 人的一天
從經驗中學習 - 直觀理解貝氏定理及其應用
從經驗中學習 - 直觀理解貝氏定理及其應用
貝氏定理(Bayes' theorem)是機率論中,一個概念簡單卻非常強大的定理。有了機率論的存在,人們才能理性且合理地評估未知事物發生的可能性(例:今天的下雨機率有多少?我中樂透的可能性有多高?),並透過貝氏定理搭配經驗法則來不斷地改善目前的認知,協助我們做更好的決策。這篇將利用生活上我們(或人工智慧)常需要考慮的事情當作引子,如今天的下雨機率是多少?來直觀地了解貝氏定理是怎麼被應用在各式各樣的地方。我們甚至可以效仿貝氏定理的精神,讓自己能更理性地評估未知並從經驗中學習。
·leemeng.tw·
從經驗中學習 - 直觀理解貝氏定理及其應用
题解 UVA299 【Train Swapping】
题解 UVA299 【Train Swapping】
逆序对模板题,逆序对一般正解是 O(n\log n) 的,但是看到了“入门”你就知道这道题 O(n^2) 是绝对过得了的。 但O(n^2) 的冒泡排序不是重点,我们来讲一讲以后用的到的 O(n \log n) 归并排序。 归并排序运用的是“分而治之”的思想,首先把数组…
·luogu.com·
题解 UVA299 【Train Swapping】
Re: [請益] 印度商Wipro
Re: [請益] 印度商Wipro
日前也接受了Wipro的面試貌似也通過了 目前到了填基本資料的階段 請問有人知道這家嗎? 可否大概分享目前狀況? 謝謝
·ptt.cc·
Re: [請益] 印度商Wipro
Value error problem I encountered with tensorflow optimizer parameter
Value error problem I encountered with tensorflow optimizer parameter
Value error problem using tensorflow I have an issue from part of my tensor flow code when building a neural network: The error is a ValueError: Argument(s) not recognized : {'lr' : 0.001} The sec...
learning_rate
·stackoverflow.com·
Value error problem I encountered with tensorflow optimizer parameter
Day15:時間序列預測--LSTM - iT 邦幫忙::一起幫忙解決難題,拯救 IT 人的一天
Day15:時間序列預測--LSTM - iT 邦幫忙::一起幫忙解決難題,拯救 IT 人的一天
在本節中,我們將深入探索如何使用深度學習中的循環神經網絡(RNN),特別是長短期記憶網絡(LSTM),來進行時間序列數據的預測。我們將使用PyTorch框架,從數據預處理、模型構建、訓練到評估,完整地...
梯度消失
·ithelp.ithome.com.tw·
Day15:時間序列預測--LSTM - iT 邦幫忙::一起幫忙解決難題,拯救 IT 人的一天
python 删除文件、清空目录的方法总结_python 清空文件夹-CSDN博客
python 删除文件、清空目录的方法总结_python 清空文件夹-CSDN博客
文章浏览阅读10w+次,点赞19次,收藏72次。Python os.remove() 方法os.remove() 方法用于删除指定路径的文件。如果指定的路径是一个目录,将抛出OSError。在Unix, Windows中有效以下实例演示了 remove() 方法的使用:#!/usr/bin/python# -*- coding: UTF-8 -*-import os, sys# 列出目录print "目录为: %s"..._python 清空文件夹
os.removedirs("/test")
·blog.csdn.net·
python 删除文件、清空目录的方法总结_python 清空文件夹-CSDN博客
机器学习超详细实践攻略(21):三板斧干掉样本不均衡问题之1——过(欠)采样
机器学习超详细实践攻略(21):三板斧干掉样本不均衡问题之1——过(欠)采样
想象一下,假如今天是你作为数据分析师入职的第一天,老板交给你一个数据分析任务:通过公司已经有的信用卡用户和交易信息,预测用户未来是否会逾期还款。 这个问题看似简单,实则隐藏了一个非常大的坑:据粗略估…
·zhuanlan.zhihu.com·
机器学习超详细实践攻略(21):三板斧干掉样本不均衡问题之1——过(欠)采样
对不平衡数据使用sklearn.train_test_split-腾讯云开发者社区-腾讯云
对不平衡数据使用sklearn.train_test_split-腾讯云开发者社区-腾讯云
我有一个非常不平衡的数据集。我使用sklearn.train_test_split函数来提取训练数据集。现在我想对训练数据集进行过采样,所以我过去常常计算type1的数量(我的数据集有两个类别和类型(type1和tupe2),但我的所有训练数据都是type1。所以我不能过度抽样。以前,我用我编写的代码拆分训练测试数据集。在所有type1数据编码0.8和所有type2数据的0.8在训练数据集中。如何
·cloud.tencent.com·
对不平衡数据使用sklearn.train_test_split-腾讯云开发者社区-腾讯云