这里是按照「分类」阅读往期的 HelloGitHub 月刊内容, 您目前在查看 HelloGitHub 人工智能 集合。
基于 LLM 的智能股票分析系统。这是一个由 LLM 驱动的智能股票分析工具,支持 A 股、港股和美股的每日自动分析与推送。它通过 AkShare、Tushare、YFinance 等数据源获取实时行情,并借助 DeepSeek 等大模型 API 服务,对自选股票进行多维度分析(技术面、筹码分布、舆情),生成决策仪表盘,支持 GitHub Actions 定时执行(无需服务器)或 Docker 一键部署。

从零开始动手实现 AI Agent。该项目是讲解如何从零构建类似 Claude Code 的 AI Agent 工具,共计 12 节课,每节课都有一个可运行的 Python 文件。内容从最基础的 Agent 循环,逐步叠加工具调用、任务规划、子智能体、上下文压缩、多智能体协作和自主执行等功能,最终构建出一个完整的 AI Agent 系统。
def agent_loop(messages): while True: response = client.messages.create( model=MODEL, system=SYSTEM, messages=messages, tools=TOOLS, ) messages.append({"role": "assistant", "content": response.content}) if response.stop_reason != "tool_use": return results = [] for block in response.content: if block.type == "tool_use": output = TOOL_HANDLERS[block.name](**block.input) results.append({ "type": "tool_result", "tool_use_id": block.id, "content": output, }) messages.append({"role": "user", "content": results})

零依赖单文件实现现代 AI 主流算法。这是一个专为学习 AI 算法设计的教学项目,包含 30 个零依赖、单文件、可直接运行的 Python 实现,涵盖从基础的 GPT 到微调(LoRA、PPO)以及推理优化(Flash Attention)等内容。通过简单易懂的代码实现每个算法,并配有对应的 Manim 动画,方便理解和学习。

现象级的个人 AI 助手。这是一款用 TypeScript 开发的开源个人 AI 助手,可快速部署在 macOS、Windows 和 Linux 系统,并支持通过 WhatsApp、Telegram、Slack 等即时通讯应用进行交互。只要你的 token 额度充足,它就能 7*24 不停歇地执行任务,持续为你“打工”。

极简的 AI Agent 工具箱。这是一款基于 TypeScript 开发的 AI Agent 工具箱,爆火的 OpenClaw 就是基于该项目开发出来的。它提供开发 AI Agent 所需的基础功能,包括统一多 LLM 服务接口、Agent 状态管理、工具调用、交互式命令行界面、WebUI 和 Slack 机器人集成等。

本地运行的智能知识库搜索工具。这是一款完全本地运行的智能搜索引擎,可用于检索个人文档、知识库、会议记录和 Markdown 文件。它集成了本地运行轻量化模型、BM25 全文检索、向量语义搜索和重排序等功能,开箱即用、无需联网、支持 MCP 协议,可作为 AI 助手和 Agent 工作流中的知识搜索工具。

AI 驱动的修仙世界模拟器。这是一款基于 LLM 的修仙模拟器游戏,不同于传统 RPG,游戏内的 NPC 均是 AI 智能体,有独立的性格、记忆和行为逻辑,而玩家在游戏中扮演“天道”,以上帝视角观察并干预 AI 修仙者和仙界规则,见证门派兴衰与天骄崛起。

用手机操控 Claude Code 和 Codex。这是一款可以远程操作 Claude Code 或 Codex 的工具,让你随时随地通过手机查看和远程控制 AI 编程助手,提供了 iOS、Android 和 Web 客户端。

不到一秒生成 3D 场景。该项目是 Apple 开源的单目视角合成技术的配套代码,能够在短时间内根据单张图片生成高质量的 3D 场景。它通过神经网络从单张照片中回归出 3D 高斯参数,输出可供 3DGS 渲染器使用的 ply 文件。

轻量高效的 ONNX 模型优化工具。这是一个纯 Python 实现的 ONNX 模型精简与结构优化工具,无需额外的编译依赖。它通过分析与重写计算图,自动移除冗余节点、无效分支和多余参数,在保证模型精度不变的前提下,减少模型体积并提升推理速度,适用于模型发布、推理部署和工程化场景。
import onnx import onnxslim model = onnx.load("model.onnx") slimmed_model = onnxslim.slim(model) if slimmed_model: onnx.save(slimmed_model, "slimmed_model.onnx")
