网站首页 博客文章 第199页
-
流式深度学习终于奏效了!强化学习之父Richard Sutton力荐
机器之心报道...
2025-02-13 baijin 博客文章 15 ℃ 0 评论 -
告别2019:属于深度学习的十年,那些我们必须知道的经典
选自leogao.dev作者:LeoGao参与:一鸣、泽南、蛋酱2020新年快乐!当今天的太阳升起时,我们正式告别了上一个十年。...
2025-02-13 baijin 博客文章 16 ℃ 0 评论 -
GAN已死?GAN万岁!布朗康奈尔新作爆火,一夜碾压扩散模型
编辑:Aeneas桃子...
2025-02-13 baijin 博客文章 15 ℃ 0 评论 -
大模型扫盲系列——大模型实用技术介绍(上)
...
2025-02-13 baijin 博客文章 11 ℃ 0 评论 -
“注意力就是你所需要的一切”——Transformer 传奇之旅
2017年的某个清晨,一位年轻的学者正焦虑地琢磨着如何让机器更好地理解语言。他回忆起自己学习RNN和LSTM时那逐词依赖、难以并行的计算瓶颈,突然灵光一现:“如果能把注意力机制直接作为核心,而不必再依赖循环结构呢?”于是,2017...
2025-02-13 baijin 博客文章 11 ℃ 0 评论 -
秒懂大模型:深度学习中的层和功能
在深度学习中,层(layer)是神经网络的基本构建块。不同类型的层有不同的功能和用途。以下是一些常见的深度学习层及其功能:...
2025-02-13 baijin 博客文章 12 ℃ 0 评论 -
一篇文章让你搞懂大模型到底是什么?
自从2022年11月30日ChatGPT发布以后,大模型这个词就开始被大家津津乐道,到底什么是大模型?它的运行原理和工作过程又是怎样的?请往下看,我尽量用最通俗易懂的语言告诉你:一、什么模型?在不同的领域,模型的定义是不同的:...
2025-02-13 baijin 博客文章 11 ℃ 0 评论 -
中学生就能看懂:从零开始理解LLM内部原理【三】|...
专注LLM深度应用,关注我不迷路...
2025-02-13 baijin 博客文章 12 ℃ 0 评论 -
中学生就能看懂:从零开始理解LLM内部原理【四】|嵌入
专注LLM深度应用,关注我不迷路...
2025-02-13 baijin 博客文章 10 ℃ 0 评论 -
Transformer神经网络:GPT等AI大模型的基石
Transformer模型基于自注意力机制,摒弃了传统的RNN和CNN结构,在自然语言处理任务中取得了显著的成果,一定程度上是GPT的重要基石。这篇文章里,作者就对Transformer神经网络做了解读,一起来看一下。...
2025-02-13 baijin 博客文章 9 ℃ 0 评论
- 379℃手把手教程「JavaWeb」优雅的SpringMvc+Mybatis整合之路
- 373℃用AI Agent治理微服务的复杂性问题|QCon
- 364℃IT全明星|IntelliJ IDEA学习笔记(四、idea中怎么创建maven项目)
- 364℃初次使用IntelliJ IDEA新建Maven项目
- 358℃Maven技术方案最全手册(mavena)
- 355℃安利Touch Bar 专属应用,让闲置的Touch Bar活跃起来!
- 352℃InfoQ 2024 年趋势报告:架构篇(infoq+2024+年趋势报告:架构篇分析)
- 352℃IntelliJ IDEA 2018版本和2022版本创建 Maven 项目对比
- 控制面板
- 网站分类
- 最新留言
-