English
全部
搜索
图片
视频
短视频
地图
资讯
更多
购物
航班
旅游
笔记本
报告不当内容
请选择下列任一选项。
无关
低俗内容
成人
儿童性侵犯
时长
全部
短(小于 5 分钟)
中(5-20 分钟)
长(大于 20 分钟)
日期
全部
过去 24 小时
过去一周
过去一个月
去年
清晰度
全部
低于 360p
360p 或更高
480p 或更高
720p 或更高
1080p 或更高
源
全部
Dailymotion
Vimeo
Metacafe
Hulu
VEVO
Myspace
MTV
CBS
Fox
CNN
MSN
价格
全部
免费
付费
清除筛选条件
安全搜索:
中等
严格
中等(默认)
关闭
筛选器
2:54
面试必刷:大模型为什么 LayerNorm 更适合 Transformer 而非 BatchN
…
已浏览 1 次
5 个月之前
YouTube
小王同学在积累
11:56
【硬核】 一口气搞懂Transformer架构 | 转AI算法工程师的第一步!通俗易懂
已浏览 2 次
3 个月之前
YouTube
Taijin 在硅谷
11:29
大语言模型原理与机制解析 - P1 -Mike X Cohen - A deep understanding o
…
已浏览 1479 次
3 周前
bilibili
精选海外教程postcode
15:21
1.6.2 归一化
已浏览 490 次
2 周前
bilibili
小森学AI
20:33
【CS336-1】3.5 归一化层:RMSNorm
已浏览 1247 次
1 个月前
bilibili
这就是小C_
19:54
大语言模型原理与机制解析 - P2 -Mike X Cohen - A deep understanding o
…
已浏览 321 次
3 周前
bilibili
精选海外教程postcode
0:52
FPGA非线性函数与残差量化加速
已浏览 121 次
1 个月前
bilibili
布鲁拉布塔塔
11:07
《从零手搓 AI 大模型》听我唠嗑就把硬核知识学了!第一集—引入
已浏览 44 次
3 周前
bilibili
别闹了_小周同志
10:10
2. layernorm.py&RMSNorm实现【从0手撸vllm】
已浏览 3764 次
3 周前
bilibili
我十六条
3:13
01-LLM-架构-演进-残差连接和归一化-RMSNorm
已浏览 25 次
1 个月前
bilibili
懒狗小李
15:27
《从零手搓 AI 大模型》从李白写诗到大模型本质!第二集—祛魅:大模
…
已浏览 48 次
3 周前
bilibili
别闹了_小周同志
1:00
BatchNorm vs LayerNorm vs RMSNorm in 40 Seconds
已浏览 28 次
1 周前
YouTube
Duniya Drift
12:09
DeepSeek mHC Explained
已浏览 3.3万 次
4 周前
YouTube
Caleb Writes Code
1:20:34
Last Week in AI #233 - Moltbot, Genie 3, Qwen3-Max-Thinking
已浏览 1095 次
2 周前
YouTube
Last Week in AI
4:13
Keel: Scaling LLMs to 1000+ Deep Layers
已浏览 75 次
2 周前
YouTube
AI Research Roundup
1:18
llm.c by hand
已浏览 1630 次
1 个月前
YouTube
AI by Hand
7:37
Why Batch Normalization Fails in Transformers: The Padding Proble
…
已浏览 47 次
1 个月前
YouTube
Skill Advancement
14:36
Post-LayerNorm Is Back: Stable, ExpressivE, and Deep (Jan 2026)
已浏览 28 次
2 周前
YouTube
AI Paper Slop
7:13
Beyond LayerNorm: Introducing Derf for Normalization-Free Transf
…
已浏览 11 次
2 个月之前
YouTube
PaperLens
1:54:54
Can I make an LLM from scratch? (Part 14 - LayerNorm)
已浏览 2 次
3 个月之前
YouTube
qwize
0:23
Chinar Arora on Instagram: "Happy Friday! Finally got some 🌞
…
已浏览 2977 次
1 个月前
Instagram
awomanindatascience
4:07
Comparison of Batch, Layer, Instance and Group Normalization
已浏览 4738 次
2021年10月21日
YouTube
AI with Math
Mengenal Layer Normalization
已浏览 633 次
2024年2月12日
YouTube
Anak AI
21:19
[大模型面试] 什么是pre-norm, post-norm? 为什么现在大模型都用pre-no
…
已浏览 7461 次
6 个月之前
YouTube
EZ.Encoder Academy
7:56
什么是层归一化LayerNorm,为什么Transformer使用层归一化
已浏览 650 次
2024年10月26日
YouTube
小黑黑讲AI
31:35
【XIXI】Pre-LayerNorm VS Post-LayerNorm
已浏览 224 次
6 个月之前
bilibili
西西邦尼Q
1:36
可视化解释 深度学习基础概念——看完就能懂
已浏览 317 次
7 个月之前
bilibili
祖安ADAS
45:27
LLM相关技术介绍之三-Self-Attention及Transformer模型架
…
已浏览 309 次
2024年8月21日
bilibili
kindlytrees
12:48
记录|回宿舍路上回顾今天学了什么|锻炼表达|前面力扣后面batchn
…
已浏览 46 次
11 个月之前
bilibili
小L-弈楚
10:56
LayerNorm与BatchNorm的适用场景对比
已浏览 87 次
7 个月之前
bilibili
快爬起来学AI
观看更多视频
更多类似内容
反馈