下拉刷新
首页
月刊
榜单
文章
首页
月刊
🏆
榜单
文章
登录
提交项目
EN
项目详情
由
分享
lm-evaluation-harness
开源的 LLM 评测框架
HelloGitHub 评分
0 人评分
lm-evaluation-harness
开源的 LLM 评测框架
过去 2 天共收获 15 颗 Star ✨
访问
访问
点赞 1
开源
•
MIT
认领
讨论
收藏
分享
8k
星数
否
中文
Python
主语言
是
活跃
263
贡献者
479
Issues
是
组织
0.4.7
最新版本
2k
Forks
MIT
协议
更多
介绍
这是一个是用于评估大型语言模型的框架,能够测试模型在多种任务中的表现。它提供了超过 60 个学术基准测试,支持多种模型框架、本地模型、云服务(如 OpenAI)、硬件加速,以及自定义任务等功能。
收录于:
第 107 期
标签:
AI
LLM
Python
评论
没用过
用过
评分:
发布
暂无精选评论
立即登录
推荐项目
换一换