Skip to content

beta v0.5.2

Compare
Choose a tag to compare
@gfhdhytghd gfhdhytghd released this 25 Aug 11:52
· 138 commits to main since this release

再次大幅提高LM处理能力上限
具体方式如下:
加入了多轮对话以避免大模型输出token数量限制,现在他理论上可以处理15000token的输出,现在的瓶颈是单次输入的token限制
修改gotojpg以减小转换时的内存占用