Yima Gu's Blog
  • 首页
  • 归档
  • 分类
  • 标签
  • 关于

CSAPP - 03.Machine-Level Programming II

机器级编程 II:算数与控制 (Machine-Level Programming II: Arithmetic & Control) 真正的程序员可以用任何语言编写汇编代码。(REAL PROGRAMMERS CAN WRITE ASSEMBLY CODE IN ANY LANGUAGE.) — Larry Wall, 美国程序员 (American Programmer)
2026-01-15
CSAPP
#CSAPP

CSAPP - 03.Machine-Level Programming I

对干机器级编程来说,其中两种抽象尤为重要。第一种是由指令集体系结构或指令集架构(Instruction Set Architecture,ISA)来定义机器级程序的格式和行为,它定义了处理器状态、指令的格式,以及每条指令对状态的影响。 机器级编程 I: (Machine-Level Programming I): 主要内容:
2026-01-15
CSAPP
#CSAPP

CSAPP - 02.Floating Point Numbers

一、小数的二进制表示 (Fractional Binary Numbers) 1. 表示方法 计算机使用二进制来表示一切信息。对于小数,其表示方法与整数类似,只是在小数点右侧的每一位代表 2 的负数次幂。 一个二进制小数 bibi−1...b1b0.b−1b−2...b−jb_{i}b_{i-1}...b_{1}b_{0}.b_{-1}b_{-2}...b_{-j}bi​bi−1​...b1​b0
2026-01-15
CSAPP
#CSAPP

CSAPP - 01.bits, Bytes and Integers

1. 核心概念:位、字节与字 在计算机系统中,所有信息都表示为二进制位(bits)。 字节 (Byte):是内存中最小的可寻址单位,通常由8个位(bit)组成。内存可以看作是一个巨大的字节数组,每个字节都有一个唯一的地址。 字 (Word):是处理器处理数据的标称大小(nominal size)。字长(Word Size)决定了虚拟地址空间的最大大小。 CPU需要通过地址来访问内存中的
2026-01-15
CSAPP
#CSAPP

The Era of Experience

Deep Dive: OaK Architecture & The Era of Experience Speaker: Richard Sutton (Father of Reinforcement Learning) Core Theme: Next-Gen Agent Architecture: OaK (Options and Knowledge) Key Quote: “Wha
2025-12-01
Talks > AI
#AI Talks #Reinforcement Learning #OaK Architecture #Richard Sutton

DL Notes-7 Generative Models

Generative Model 数据分布是生成模型的核心。生成模型的目标是学习数据的分布,然后生成新的数据。目标是学习数据的分布,然后生成新的数据。 对生成模型的评价是通过生成的数据的质量来评价的,生成的数据越接近真实数据,生成模型的质量越好。 θ∗=arg⁡max⁡θEx∼pdatalog⁡pmodel(x∣θ)\theta^* = \arg\max_{\theta} \mathbb{E}_{
2025-08-03
Deep Learning
#DeepLearning #GenerativeModel

DL Notes-6 Transformers

Transformers Transformers: Attention is All You Need 再次理解Attention的概念:类似于”查字典“的操作,对于Query qqq, Key kkk和Value vvv,计算相关性,也就是重要性,对于输出序列中的第iii个输出有价值的信息: wij=a(qi,kj)w_{ij} = a(q_i, k_j) wij​=a(qi​,kj​) 其中
2025-08-01
Deep Learning
#DeepLearning #Transformer

DL Note-5 RNN

Recurrent Network Sequence Model 序列建模任务是指对一个序列的输入进行建模,比如文本、音频、视频等。序列模型的输入和输出都是序列,如机器翻译、语音识别、视频分类等任务。重要的是捕捉序列中的上下文。 Basic Principle Local Dependency Local Dependency:对于序列中的每一个元素,它的预测是依赖于它的前面的元素的。这种依赖关系
2025-07-28
Deep Learning
#DeepLearning #RNN

DL Note-4 Optimization

Optimization Objective Function 在深度学习中,训练模型本质上是一个优化过程。我们的核心目标是寻找一组模型参数θ\thetaθ,使得在给定数据集D\mathcal{D}D上的目标函数O(D,θ)\mathcal{O}(\mathcal{D}, \theta)O(D,θ)最小化。该目标函数通常由两部分构成: arg⁡min⁡O(D,θ)=∑i=1NL(yi,f(xi,θ
2025-07-21
Deep Learning
#DeepLearning #Optimization

AI Agent Notes

AI Agent:人类只给AI目标,AI自己想办法完成某个研究问题。 整个图示清晰地展现了强化学习的核心循环:智能体观察环境的状态 (棋盘布局),基于其策略和目标 (赢棋) 来选择一个行动 (下一步棋),该行动改变了环境的状态,然后智能体又观察到新的状态,如此循环往复,直到游戏结束分出胜负。 通过这种方式,AI的目标(图中的“赢棋”)被转化成了一个数学问题:如何选择一系列的行动(下棋),来最大化
2025-07-20
Deep Learning
#DeepLearning #AI #李宏毅机器学习
12345

搜索

Hexo Fluid
总访问量 次 总访客数 人