Skip to content

haukzero/pytorch-flash_attn-demo

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

2 Commits
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

PyTorch Flash-Attn Demo

softmax 出发, 用 pytorch 模拟 flash-attn v1/v2 中的主要算法

Project Structure

  • softmax.py: softmax 实现
  • softmax.pdf: softmax 公式推导原理
  • attention.py: 包含原始 attention 计算和 flash_attention_v1, flash_attention_v2 计算的实现
    • 为简明起见, 算法中并没有添加 maskdropped out
  • flash_attn_v1.pdf: flash_attention_v1 的核心算法原理公式推导
  • flash_attn_v2.pdf: flash_attention_v2 的核心算法原理公式推导以及其在 v1 版本上的改进

About

用 pytorch 模拟实现 flash_attn v1/v2 的核心算法

Topics

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages