阿里通义千问开源 320 亿参数模型;文字和音频自动翻译成手语Hand Talk拉近人与人的距离
✨ 1: Qwen1.5-32B
Qwen1.5-32B是Qwen1.5系列中性能与效率兼顾的最新语言模型,内存占用低,运行速度快。
Qwen1.5-32B
Qwen1.5-32B是Qwen1.5语言模型系列的最新成员,这个模型是基于先进的技术研发的,旨在提供一种既高效又经济的AI语言理解和生成工具。
Qwen1.5-32B是一款既高效又经济实惠的语言模型,适用于需要自然语言处理能力的多种场景。尤其对于那些追求成本效益、运行效率,同时又不愿牺牲太多性能的开发者和企业来说,Qwen1.5-32B提供了一个非常吸引人的选择。
地址:https://qwenlm.github.io/zh/blog/qwen1.5-32b/
✨ 2: Hand Talk
利用3D角色和人工智能将文字和音频自动翻译成手语的应用程序
Hand Talk是一个旨在促进交流和帮助学习美国手语(ASL)和巴西手语(Libras)的应用程序。它通过人工智能将文本和音频自动翻译为手语。该应用程序通过两个可爱的3D角色,Hugo和Maya,来引导用户学习手语,使得学习过程既实用又有趣。全球有超过4.66亿的聋人和听力受损的人,Hand Talk被联合国评为世界上最佳的社会应用程序之一,目标是通过技术和交流拉近人们之间的距离。
地址:https://www.handtalk.me/en/app/
✨ 3: Chinese-Tiny-LLM
专注于中文处理的大型语言模型,它有20亿参数,主要用中文数据进行训练
Chinese-Tiny-LLM(简称CT-LLM)是一个专注于中文处理的大型语言模型,它有20亿参数,主要用中文数据进行训练。这个模型使用了1,2000亿个token的语料库,包括8000亿个中文token、3000亿个英文token和1000亿个代码token。这种多语言混合的训练方法提高了模型对中文的处理能力,并且通过对齐技术进一步改进。在中文语言任务上,CT-LLM在CHC-Bench上展示出优秀的表现,并且通过SFT(Structured Fine-Tuning)也能够处理英文任务。这标志着开发LLM(大型语言模型)的方向开始着重考虑中文,拓展了训练方法论。
地址:https://github.com/Chinese-Tiny-LLM/Chinese-Tiny-LLM
✨ 4: VAR
北大发布新兴的图像生成方法
Visual Autoregressive Modeling (VAR) 是一种新兴的图像生成方法,它代表了生成式预训练模型(如GPT系列模型)在视觉生成领域的重要进步。VAR模型通过使用一种称为“下一尺度预测”或“下一分辨率预测”的方法,重新定义了对图像的自回归学习。这与传统的按照像素序列逐点预测的方法有所不同。
地址:https://github.com/FoundationVision/VAR
更多AI工具,参考国内AiBard123,Github-AiBard123
广告:私人定制视频文本提取,字幕翻译制作等,欢迎联系QQ:1752338621