Erwin Feng Blog

Erwin Feng Blog

内容也是一种社交方式!

首页 归档 关于 订阅

正在查看 NLP 下的文章

2021

  • 2021-10-16分析与拓展:Transformer中的MultiHeadAttention为什么使用scaled?
  • 2021-03-01NER任务的深度总结
  • 2021-01-23Grad-CAM在NLP可视化中的应用

2020

  • 2020-12-09NLU任务:仅使用字形信息也有效?
  • 2020-11-22分词与词频统计的并行化
  • 2020-11-16NLP中GlobalMaxPooling的可视化理解
  • 2020-11-15NLP中AttentionPooling的可视化理解

2019

  • 2019-11-27文本匹配的经典方法
  • 2019-07-09Embedding之字词混合的两种对齐方案
  • 2019-03-01漫谈序列编码:MLP、CNN、RNN
  • 2019-02-28如何评估词向量化的优劣?
  • 2019-02-27求句向量的思路探索
  • 2019-01-24理解神经网络中Embedding层的原理

2018

  • 2018-12-12中文分词详解:从词典匹配到深度学习方法
  • 2018-12-10词向量系列(1):VSM与词袋模型
  • 2018-12-05简述语义匹配的发展
  • 2018-11-11概率图模型系列(5):条件随机场CRF
  • 2018-08-15简单说说神经网络中的Embedding
  • 2018-07-29一个绝妙的idea:变长文本序列转换成定长向量

Erwin Feng, 你的认知合作伙伴!

分类
  • C/C++
  • Go
  • Java
  • Linux
  • NLP
  • Python
  • 数学
  • 数据库
  • 数据结构和算法
  • 机器学习深度学习
  • 记录
标签
C语言 算法 C Python 设计模式 数据库 区块链 MySQL 分布式 ACID SQL NoSQL sudo Docker git Linux 命令行 Git Systemd Tensorflow gcc 操作系统 正则表达式 记录 数据结构 Go 网络 go LRU ARC Java 剑指Offer 函数式 搜索引擎 Stack 并发编程 HTTP 网络编程 并发 装饰器 Redis 度量 数学 时间序列 投资 概率 统计 信息论 机器学习 贝叶斯 最小二乘法 矩阵 分布 不等式 深度学习 变分推断 随机 采样 光滑 逼近 词向量 信息 量化 交叉验证 集成学习 分类 证明 损失函数 回归 指标 特征工程 正则化 NLP Embedding Transformer Attention 神经网络 对抗训练 prompt LLM NER 概率图 文本分类 分词 HMM 图 并行 可视化 梯度 RNN LSTM 注意力 序列编码 BERT 磁盘故障 CNN 卷积 注意力机制 优化 调参
最近文章
  • 掌握基本面投资艺术:精炼的 prompt 模板
  • 确定性变量的随机化技巧
  • 分析与拓展:Transformer中的MultiHeadAttention为什么使用scaled?
  • Tensorflow的多卡训练:原理和实践
  • 机器学习之分类问题的评估指标总结
  • 天马行空:设计自己的激活函数
  • 函数光滑近似(4):Heaviside step函数及其应用
  • 引入参数控制softmax的smooth程度
  • 分析与拓展:多分类模型的输出为什么使用softmax?
  • 一种基于光滑逼近的正态分布采样法
友情链接
    github
    Copyright © 2023 Erwin Feng Blog. Powered by Hexo. Theme by Cho.