模型: FastText TextCNN TextRNN RCNN 分层注意网络(Hierarchical Attention Network) 具有注意的seq2seq模型(seq2seq with attention) Transformer("Attend Is All You Need") 动态记忆网络(Dynamic Memory Network) 实体网络:追踪世界的状态 其他模型: BiLstm Text Relation: Two CNN Text Relation:
https://www.wxwenku.com/d/102093756 AI科技评论按:前几天,Yann LeCun与其学生 张翔在arXiv上发表了一篇新作「Which Encoding is the Best for Text Classification in Chinese, English, Japanese and Korean?」.这篇文章做了一个包含473种模型的大型对比实验,实验的目的是对文本分类任务中不同语言(英语.汉语.韩语和日语)不同的level(utf-8 .字符等)和