Releases: pass-lin/bert4keras3
Releases · pass-lin/bert4keras3
1.6
1.5
添加了gemma2的支持,添加了llama3.1-8B的权重
1.4
新版本可以在build_transformer_model时添加penalty,penalty_window ,max_penalty_range,temperature四个参数。
详情可以参考文档。
增加了RWKV6的层及其模型的支持,关于层的详细介绍可以查看文档RWKV_layer.
对于RWKV6更详细的介绍,我们单独创建了一个RWKV6仓库,在这里你可以看到关于本库对RWKV6的详细介绍
1.3
重新整理了苏神的代码
更新了对 Gemma,Qwen,和llama系列模型(llama3)的支持
1.2
增加了对weights.h5的读取支持
增加了lora支持,可以通过设置os.environ["ENABLE_LORA"]='1' 启动lora训练,注意的是除了lora之外的参数全部会被冻结
增加了flash-attention支持,可以通过设置os.environ["FLASH_ATTN"]='1'使用flash-attention
但是需要注意的是,tensorflow不支持。而jax在https://github.com/nshepperd/flash_attn_jax/releases 下载,torch则是
https://github.com/Dao-AILab/flash-attention
1.1
更新了支持批量运算的t5-cache推理版本,详细使用参考t5-cache的使用example 。里面较为详细地列出了cache模型要如何使用。
除了T5,还增加了bert和
roformer/roformer-v2的cache支持,用法和t5一样,example里只是测试一下与greedy是否一致