自己训练翻译模型,再也不怕英语阅读看不懂啦!
本帖最后由 ConstantinChiae 于 2020-5-1 15:51 编辑好久不见,我又来了。上次放出了中文聊天机器人,最近在看Transformer和Bert,就用Transformer写了个小demo练习用,顺便把老早之前的一个LSTM机器翻译demo一块放出来,欢迎交流学习哦!
英文 到 中文 的机器翻译:基于LSTM实现
github项目地址MachineTranslation-LSTM:https://github.com/jiayiwang5/MachineTranslation-LSTM
还是老套路,LSTM+Bahdanau attention,数据集是keras一个官方example里的,不大就2万,最后还是有点效果的。
中文 到 英文 的机器翻译:基于Transformer实现
github项目地址MachineTranslation-Transformer:https://github.com/jiayiwang5/MachineTranslation-Transformer
很久之前就拜读过《Attention is all you need》,Transformer的出现确实对nlp有极大的推动作用,它并不同于一般的神经网络,是完全基于Attention的,并且网络结构比较复杂,好在有大神CyberZHG:https://github.com/CyberZHG/keras-transformer做了封装,使用起来就变得很容易了(他还封装了bert呦)。论文中encoder和decoder都是6层,我的小demo都只用了2层。
本帖最后由 mikeee 于 2020-5-1 17:18 编辑
感谢分享。
train&translate.ipynb 好像打不开(https://github.com/jiayiwang5/MachineTranslation-Transformer/blob/master/train%26translate.ipynb) (错误信息:Sorry, something went wrong. Reload?) 我也在本地开 jupyter服务器试过(错误信息:Unreadable Notebook: train&translate.ipynb NotJSONError('Notebook does not appear to be JSON: \'{\\n "cells": [\\n {\\n "cell_type": "c...',) )。
get_data.ipynb 正常 (https://github.com/jiayiwang5/MachineTranslation-Transformer/blob/master/get_data.ipynb)
mikeee 发表于 2020-5-1 17:13
感谢分享。
train&translate.ipynb 好像打不开
你好,我发现我也打不开,,,我又上传了一下,这次可以了,好神奇。 感谢楼主 分享 具体怎么使用啊,楼主,我是小白 是要在线联网用的吗? 感谢楼主分享 才疏学浅,没看懂{:301_1007:} 深造 发表于 2020-5-1 16:17
具体怎么使用啊,楼主,我是小白
在README里面有具体步骤呢 ychiou 发表于 2020-5-1 16:27
是要在线联网用的吗?
不需要的
页:
[1]
2