We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
484ca22
再次大幅提高LM处理能力上限 具体方式如下: 加入了多轮对话以避免大模型输出token数量限制,现在他理论上可以处理15000token的输出,现在的瓶颈是单次输入的token限制 修改gotojpg以减小转换时的内存占用