大家好,我是倔强青铜三。欢迎关注我,微信公众号:倔强青铜三。欢迎点赞、收藏、关注,一键三连!!!

如果2025年给人的感觉是大语言模型(LLM)和智能体的一年,那是因为它确实如此。生态系统以惊人的速度扩张,新的模型、框架、工具和抽象层几乎每周都在涌现。
这给我们带来了一个意想不到的挑战:随着LLM、智能体框架、检索器、编排器和评估工具的快速发展,今年的Top 10榜单很容易变成一个完全的LLM列表。我们有意识地避免了这种情况。
相反,今年的选择突出了两件事:
结果是一个平衡的、有观点的选择,包含了每个类别的Top 10精选,加上值得关注的亚军,反映了团队今天如何通过结合Python经过验证的基础和新的智能体与LLM驱动工具浪潮来构建AI系统。

Python的类型系统已成为现代开发的核心,但传统类型检查器在大型代码库上可能显得迟缓。ty的出现改变了这一局面,这是一款由Astral(Ruff和uv的创造者)用Rust编写的极快Python类型检查器和语言服务器。
ty从一开始就优先考虑性能和开发者体验。开始使用非常简单:你可以尝试在线playground,或者运行uvx ty check来分析整个项目。该工具会自动发现项目结构,找到虚拟环境,并在无需大量配置的情况下检查所有Python文件。它尊重pyproject.toml,自动检测.venv环境,并且可以根据需要定位特定文件或目录。
除了原始速度,ty代表了Astral对现代化Python工具生态系统的持续投资。这个通过Ruff革命化了代码检查、通过uv革命化了包管理的团队,现在正在解决类型检查问题:开发工具应该快到让人感觉不到它们的存在。作为独立的类型检查器和语言服务器,ty提供实时的编辑器反馈。值得注意的是,ty使用Salsa进行函数级别的增量分析。这样,当你修改单个函数时,只有该函数及其依赖项会被重新检查,而不是整个模块。这种细粒度方法提供了特别响应迅速的IDE体验。
与Meta最近发布的pyrefly一起,ty代表了新一代基于Rust的类型检查器——尽管采用根本不同的方法。pyrefly追求激进的类型推断,可能会标记正常工作的代码,而ty拥抱"渐进保证":删除类型注释不应引入新错误,使增量采用类型更容易。
重要的是要注意,ty目前处于预览阶段,尚未准备好用于生产环境。可能会有bug、缺失功能和偶尔的问题。然而,对于个人项目或实验,ty提供了对Python工具发展方向的有价值的见解。凭借Astral的过往记录和持续的发展势头,ty值得你关注,因为它正在向稳定版本发展。

代码复杂度度量长期以来是软件质量分析的主要内容,但传统方法如圈复杂度在人类理解方面往往偏离目标。complexipy采用了一种不同的方法:它使用认知复杂度,一种与开发者实际感知代码难度相一致的度量标准。用Rust构建以提高速度,这个工具帮助识别真正需要重构的代码,而不是标记数学上复杂但可读的模式。
认知复杂度最初由SonarSource研究,它测量理解代码所需的心理努力,而不是执行路径的数量。这种以人为中心的方法惩罚嵌套结构和线性流的中断,这正是开发者通常遇到困难的地方。complexipy将这种方法论带到Python,通过简单的接口实现:complexipy .分析整个项目,而complexipy path/to/code.py --max-complexity-allowed 10让你强制执行自定义阈值。该工具支持命令行使用和Python API,使其适应各种工作流:
该项目包含用于CI/CD管道的GitHub Action,一个在提交前捕获复杂度问题的pre-commit钩子,以及一个VS Code扩展,在编码时提供带有视觉指示器的实时分析。配置灵活,可通过TOML文件或pyproject.toml实现,工具可以将结果导出为JSON或CSV以供进一步分析。Rust实现确保即使大型代码库也能快速分析,这是纯Python替代方案的真正优势。
complexipy填补了一个特定的利基市场:寻求使用实际反映开发者经验的度量标准来强制执行代码可维护性标准的团队。默认阈值15与SonarSource的研究建议一致,尽管你可以根据团队的容忍度进行调整。该工具成熟,有积极的维护和不断增长的贡献者社区。对于厌倦了辩论主观代码质量的开发者,complexipy提供了客观的、有研究支持且感觉直观而非武断的测量。
如果你关心基于实际开发者经验的可维护性,请确保在CI/CD管道中为这个工具留出空间。

在生产环境中处理文档通常意味着在便利性和控制之间做出选择。基于云的解决方案提供强大的提取功能,但引入延迟、成本和隐私问题。本地库提供自主性,但通常将你锁定在单一语言生态系统中。Kreuzberg采用了一种不同的方法:一个基于Rust的文档智能框架,将原生性能带给Python、TypeScript、Ruby、Go和Rust本身,所有这些都来自单一代码库。
在核心层面,Kreuzberg处理超过50种文件格式系列——PDF、Office文档、图像、HTML、XML、电子邮件和存档文件——在所有支持的语言中提供一致的API。语言绑定遵循生态系统约定,同时保持功能对等,所以无论你在Python中调用extract_file()还是在TypeScript中等效调用,你都在访问相同的功能。这消除了发现功能存在于一个绑定而不存在于另一个绑定的常见挫折。
Kreuzberg的部署灵活性也很突出。除了标准库使用,它还作为CLI工具、带有OpenAPI文档的REST API服务器、用于AI助手的模型上下文协议服务器以及官方Docker镜像提供。对于跨不同语言或部署场景工作的团队,这种多功能性意味着标准化一个提取工具而不是维护单独的解决方案。OCR功能也值得关注:所有绑定的内置Tesseract支持,Python还额外支持EasyOCR和PaddleOCR。框架包括智能表检测和重建,而流式解析器在处理多千兆字节文件时保持恒定的内存使用。
如果你的组织跨越多种语言,需要一致、可靠的提取,Kreuzberg非常值得认真考虑。

速率限制是每个生产应用程序需要的那些不起眼但必要的功能之一。无论是保护API免受滥用、管理第三方API调用以避免超过配额,还是确保跨用户的公平资源分配,适当的速率限制都是不可协商的。throttled-py通过一个专注的、高性能的库解决了这个需求,它将五种经过验证的算法和灵活的存储选项集成到一个干净的Python包中。
throttled-py的与众不同之处在于它对算法选择的全面方法。它不强迫你采用单一策略,而是支持固定窗口、滑动窗口、令牌桶、漏桶和通用单元速率算法(GCRA),每种在精度、内存使用和性能之间都有各自的优缺点。这种灵活性很重要,因为不同的应用程序有不同的需求:简单的API可能在固定窗口的最小开销下工作正常,而处理突发流量的分布式系统可能受益于令牌桶或GCRA。该库使在算法之间切换变得简单,让你为特定约束选择正确的工具。
性能是throttled-py提供实际好处的另一个领域。基准测试显示,内存操作运行速度大约是基本字典操作的2.5-4.5倍,而Redis支持的限速与原始Redis命令性能相当。开始使用只需要几行代码:通过pip安装,配置配额和算法,你就可以限制请求了。API支持装饰器、上下文管理器和直接函数调用,同步和异步代码的语法相同。当需要自动退避而不是立即拒绝时,可以使用等待并重试行为。
该库支持内存存储(具有内置LRU驱逐)和Redis,使其适用于单进程应用程序和分布式系统。线程安全内置,简单的配置模型意味着可以通过重用相同的存储后端在代码库的不同部分共享速率限制器。文档清晰,包括常见模式的实际示例,如保护API路由或限制外部服务调用。
throttled-py积极维护,为Python速率限制提供了现代、灵活的方法。虽然它还没有像Flask-Limiter这样的旧库的生态系统认可,但它将当代Python实践——包括完整的异步支持——带入了一个最近没有看到太多创新的领域。对于需要可靠速率限制、算法灵活性和良好性能特性的开发者,throttled-py提供了一个值得根据你的特定要求进行评估的引人注目的选项。
对于希望速率限制可靠、灵活且不碍事的团队来说,这是一个可靠的现代选项。

在排除HTTP性能问题或调试API集成时,开发者经常发现自己使用curl,然后手动解析计时信息或拼凑出错了什么。httptap通过专注的方法解决了这个诊断差距:它将HTTP请求分解为各个阶段——DNS解析、TCP连接、TLS握手、服务器等待时间和响应传输——并以从丰富的终端可视化到机器可读度量的各种格式呈现数据。
基于httpcore的跟踪钩子,httptap为HTTP事务的每个阶段提供精确测量。该工具捕获对诊断很重要的网络级详细信息:IPv4或IPv6地址、包括过期日期和密码套件在内的TLS证书信息,以及揭示慢速是否源于DNS查找、连接建立或服务器处理的计时细分。除了简单的GET请求,httptap还支持所有标准HTTP方法,并处理请求体,自动检测JSON和XML有效负载的内容类型。--follow标志跟踪重定向链,每个跳都有完整的计时数据,使理解多步请求流变得简单。
httptap的真正效用体现在输出灵活性中。默认的rich模式在终端中呈现瀑布时间线——对于交互式调试来说立即直观和信息丰富。切换到--compact以获得适合日志文件的单行摘要,或切换到--metrics-only以获得可以干净地传输到脚本中进行性能监控和回归测试的原始值。--json导出捕获包括重定向链和响应标头在内的完整请求数据,支持程序化分析或API性能基线的历史跟踪。
对于需要自定义的开发者,httptap暴露了用于DNS解析、TLS检查和请求执行的干净协议接口。这种可扩展性允许你交换自定义解析器或修改请求行为,而无需fork项目。该工具还包括用于实际调试的实用功能:curl兼容的标志别名以便于采用,代理支持用于通过开发环境路由流量,以及在测试环境中使用自签名证书时绕过TLS验证的能力。
你的调试会话现在变得更容易了。

现代Web应用程序中的安全性通常是事后考虑的——通过分散的中间件、手动IP检查和在威胁已经到达门口时的反应措施来实现的。FastAPI Guard采用了一种不同的方法,提供集成到FastAPI应用程序中的综合安全中间件,以系统地处理常见威胁。如果你一直在拼凑各种安全解决方案,这个库提供了应用层安全的集中方法。
在核心层面,FastAPI Guard解决了大多数API需要的基础:IP白名单和黑名单、速率限制、用户代理过滤以及在可疑活动后自动禁止IP。该库包括渗透尝试检测,监控常见攻击签名,如SQL注入、路径遍历和XSS尝试。它还通过IP地理位置支持地理过滤,可以阻止来自云提供商IP范围的请求,并按照OWASP指南管理全面的HTTP安全标头。配置简单——定义一个带有规则的SecurityConfig对象,并将中间件添加到应用程序中。
FastAPI Guard的部署灵活性使其非常适合实际使用。单实例部署使用高效的内存存储,而分布式系统可以利用可选的Redis集成在实例间共享安全状态。该库还通过装饰器提供细粒度控制,让你将特定安全规则应用于单个路由,而不是全局强制执行所有内容。管理端点可能需要HTTPS、限制访问内部IP并监控可疑模式,而公共端点保持宽松。
虽然它不能防止每一个复杂的攻击,但它为常见安全问题提供了坚实的基础,并自然地集成到FastAPI中,而无需架构更改。对于需要超过基本安全性但希望避免管理多个中间件解决方案的团队,FastAPI Guard将基本保护整合到一个设计良好的包中。
安全不一定很复杂。

当需要修改第三方Python库的行为时,传统选项有限且充满权衡。fork整个存储库并承担其维护负担,monkey-patch模块并冒着污染应用程序全局命名空间的风险,或者vendor代码并处理上游库更新时的同步头痛。modshim,一个Python库,提供了第四种方法:将修改叠加到现有模块上,而无需触及它们的源代码。
modshim通过Python的导入系统创建虚拟合并模块来工作。你在单独的模块中编写增强功能,该模块镜像目标库的结构,然后使用shim()将它们组合成新的命名空间。例如,要为标准库的textwrap.TextWrapper添加prefix参数,你可以使用增强功能子类化原始类,并将其作为新模块挂载。原始的textwrap完全未被触及,而你的shim版本提供扩展功能。这种隔离是modshim的关键优势:你的修改存在于自己的命名空间中,防止困扰monkey-patching的全局污染问题。
在底层,modshim向sys.meta_path添加一个自定义finder,它拦截导入并通过依次运行原始代码和增强代码来构建虚拟模块。它重写AST以修复内部导入,支持递归合并子模块,并保持所有内容线程安全。作者将其描述为"Python模块的OverlayFS",提醒我们这种导入系统级别的功能很强大,但需要谨慎使用。
它可能不适合每个团队,但在正确的人手中,它提供了fork或patch的强大替代方案。

随着AI编码助手在软件开发中变得无处不在,一个熟悉的模式出现了:开发者描述他们想要的东西,在几秒钟内收到看似合理的代码,然后花费相当多的时间调试为什么它不工作。这种模糊提示产生不一致实现的vibe-coding方法突显了我们与AI代理沟通的方式与它们实际最佳工作方式之间的根本不匹配。GitHub的spec-kit通过引入一种结构化的工作流程来解决这个差距,该工作流程将规范视为主要真实来源,将它们转化为可执行的蓝图,以清晰和一致的方式指导AI代理进行实现。
spec-kit通过名为Specify的命令行工具和一组精心设计的模板来实现规范驱动开发。这个过程经历不同的阶段:建立编码开发原则的项目宪章,创建捕获"什么"和"为什么"的详细规范,使用你选择的技术栈生成技术计划,将工作分解为可操作的任务,最后让AI代理按照计划实现。运行uvx --from git+https://github.com/github/spec-kit.git specify init my-project,你将拥有一个结构化的工作空间,带有斜杠命令,如/speckit.constitution、/speckit.specify和/speckit.implement,可以与AI助手一起使用。
spec-kit的故意代理无关设计特别值得注意。无论你使用GitHub Copilot、Claude Code、Gemini CLI还是其他十几种支持的工具,工作流程都保持一致。工具包创建一个.specify目录,其中包含管理Git分支和功能跟踪的模板和辅助脚本。这种关注点分离——规范中的稳定意图,代码中的灵活实现——能够从同一规范生成多个实现以探索架构权衡,或者通过在新规范中捕获业务逻辑来遗留遗留系统,同时留下技术债务。
无论是否实验性,它都暗示了一种更智能的AI构建方式,值得随着它的发展密切关注。

死代码在每个Python代码库中累积:未使用的导入、被遗忘的函数以及当时看起来很重要但现在没有用途的方法。传统的静态分析工具在Python的动态性质方面遇到困难,经常遗漏关键问题或向开发者大量误报。skylos务实性地解决了这个挑战:它是一个专门设计用于检测死代码的静态分析工具,同时承认Python的固有复杂性和静态分析的局限性。
skylos旨在对代码健康采取全面的方法。除了识别未使用的函数、方法、类和导入外,它还解决了现代Python开发中日益重要的两个问题。首先,它包括可选的安全扫描,以检测危险模式:SQL注入漏洞、命令注入风险、不安全的pickle使用和弱加密哈希。其次,它通过模式检测解决了AI生成代码的兴起,检测vibe-coding引入的常见漏洞,其中代码可能执行但包含安全缺陷。这些功能通过--danger和--secrets标志是可选的,使工具专注于你的特定需求。
基于置信度的系统特别周到。skylos不是声称绝对确定性,而是为其发现分配置信度分数(0-100),较低的分数表示更大的歧义。这对于框架代码特别有用——Flask路由、Django模型或FastAPI端点可能看起来未使用,但实际上是从外部调用的。默认的60置信度提供安全的清理建议,而较低的阈值允许更积极的审计。这是一种诚实的方法,尊重Python的动态功能,而不是假装它们不存在。
skylos在实际使用中显示出真正的成熟度:它的交互模式允许你查看并有选择地删除标记的代码,而VS Code扩展在编写时提供实时反馈。GitHub Actions和pre-commit钩子支持具有可配置严格性的CI/CD工作流程,所有这些都通过pyproject.toml管理。同时,skylos对其限制很清楚:没有静态分析器可以完美处理Python的元编程,它的安全扫描仍然是概念验证,尽管基准测试显示它在某些情况下优于Vulture、Flake8和Pylint等工具,维护者注意到实际结果会有所不同。
在vibe编码混乱的时代,skylos是让代码库保持脚踏实地的盟友。

如果你在尝试为Python Web服务添加适当的API文档时感到受到框架锁定的限制,FastOpenAPI提供了一个实用的解决方案。这个库将FastAPI的开发者友好方法、自动OpenAPI模式生成、Pydantic验证和交互式文档带到更广泛的Python Web框架。它不会强迫你在特定技术上重建应用程序,而是直接与你已经使用的内容集成。
核心思想很简单:FastOpenAPI提供基于装饰器的路由,镜像FastAPI熟悉的@router.get和@router.post语法,但适用于八种不同的框架,包括AioHTTP、Falcon、Flask、Quart、Sanic、Starlette、Tornado和Django。这种"代理路由"方法以FastAPI风格注册端点,同时与你现有框架的路由系统无缝集成。你使用Pydantic模型定义API路由以进行验证,FastOpenAPI处理其余部分,生成OpenAPI模式,验证请求,并在/docs和/redoc提供交互式文档。
下面的示例使用Flask展示了实际应用:你将FastOpenAPI路由器附加到应用程序,定义Pydantic模型,并使用装饰器声明端点,没有额外的样板,没有手动模式工作:
FastOpenAPI的值得注意之处在于它专注于框架灵活性,而不牺牲现代Python API开发体验。使用Pydantic v2支持构建,它提供了你对当代工具所期望的类型安全和验证。该库自动处理请求负载和响应验证,具有内置的错误处理,返回正确格式化的JSON错误消息。
在你喜欢的框架和现代API文档之间架起桥梁。

随着LLM变得更强大,将它们连接到外部数据和工具变得越来越关键。模型上下文协议(MCP)通过为应用程序提供一种标准化的方式向LLM暴露资源和功能来解决这个问题,类似于REST API为Web服务工作的方式,但专门为AI交互设计。对于构建生产MCP应用程序的Python开发者,生态系统以两个互补的框架为中心:官方MCP Python SDK作为核心协议实现,以及FastMCP 2.0作为具有企业功能的生产框架。
由Anthropic维护的MCP Python SDK提供MCP规范的权威实现。它处理协议基础:传输(stdio、SSE、可流式HTTP)、消息路由和生命周期管理。资源向LLM暴露数据,工具支持操作执行,提示提供可重用的模板。具有结构化输出验证、OAuth 2.1支持和全面的客户端库,SDK为MCP开发提供了坚实的基础。
FastMCP 2.0通过面向生产的能力扩展了这个基础。由Prefect开创的FastMCP 1.0被纳入官方SDK。FastMCP 2.0作为积极维护的生产框架继续存在,增加了企业身份验证(Google、GitHub、Azure、Auth0、WorkOS,具有持久令牌和自动刷新)、高级模式(服务器组合、代理、OpenAPI/FastAPI生成)、部署工具和测试实用程序。开发者体验简单,添加@mcp.tool装饰器通常就足够了,可以从类型提示自动生成模式。
FastMCP 2.0和MCP Python SDK自然互补:FastMCP提供企业身份验证、部署工具和高级组合等生产就绪功能,而SDK提供更低级别的协议控制和最小依赖。两者共享相同的传输,可以在本地、云端或通过FastMCP Cloud运行。
值得探索用于严肃的LLM集成。

在使用LLM时,每个token都很重要——字面上的。无论你是在构建RAG系统、将结构化数据传递给提示,还是处理大规模信息检索,JSON的冗长性可能会迅速膨胀成本并消耗宝贵的上下文窗口空间。TOON(Token-Oriented Object Notation)通过专注的解决方案解决了这个实际问题:一种紧凑的、人类可读的编码,在保持JSON数据模型的全部表达性的同时实现了显著的token减少。
TOON的设计哲学结合了现有格式的最佳方面。对于嵌套对象,它使用YAML风格的缩进来消除大括号并减少标点符号开销。对于统一数组——该格式的最佳点——它切换到受CSV启发的表格布局,其中字段名在标题中声明一次,数据在下面的行中流动。在JSON中可能消耗数千个token的员工记录数组可以在TOON中缩小40-60%,具有明确的长度声明和字段标题,实际上帮助LLM更可靠地解析和验证结构。
格式包含在实践中很重要的 thoughtful细节。数组标题声明长度和字段,提供能够验证的保护栏,而不需要模型计数行或猜测结构。字符串仅在必要时引用,逗号、内部空格和Unicode字符可以安全地未经引用传递。替代分隔符(制表符或管道)可以为特定数据集提供额外的token节省。
TOON的基准测试在理解和token使用方面显示出明显的收益,透明地说明它在哪些方面表现出色,以及JSON或CSV仍然是更好的选择。该格式已准备好生产,但仍在多种语言实现中发展。对于在LLM工作流程中需要token高效、可读的结构以及可靠的JSON往返的开发者,TOON提供了一个实用的选项。
TOON证明了有时最佳格式是为其实际用例优化的格式。

构建能够处理复杂、多步骤任务的AI智能体变得越来越重要,因为LLM在长期工作中展现出不断增长的能力。研究表明,智能体任务长度每七个月翻一番,但这种进展带来了挑战:数十个工具调用产生了需要实际解决方案的成本和可靠性问题。LangChain的deepagents通过一个开源智能体工具包解决了这些问题,该工具包反映了Claude Code和Manus等系统中使用的模式,提供规划能力、文件系统访问和子智能体委派。
在核心层面,deepagents基于LangGraph构建,开箱即用地提供三个关键功能。首先,规划工具(write_todos和read_todos)使智能体能够将复杂任务分解为离散的步骤并跟踪进度。其次,完整的文件系统工具包(ls、read_file、write_file、edit_file、glob、grep)允许智能体将大量上下文卸载到内存,防止上下文窗口溢出。第三,task工具支持生成具有隔离上下文的专用子智能体,以独立处理复杂的子任务。这些功能通过模块化中间件架构提供,使其易于自定义或扩展。
开始使用很简单。使用pip install deepagents安装,你可以在几行代码中创建一个智能体,使用任何与LangChain兼容的模型。你可以在内置功能旁边添加自定义工具,提供特定领域的系统提示,并为专用任务配置子智能体。create_deep_agent函数返回标准的LangGraph StateGraph,因此它与流式传输、人机协作工作流程以及通过LangGraph生态系统的持久内存自然集成。
可插拔后端系统使deepagents特别有用。文件可以存储在临时状态(默认)、本地磁盘、通过LangGraph Store的持久存储中,或者通过将不同路径路由到不同存储系统的复合后端。这种灵活性使诸如长期内存等用例成为可能,其中工作文件保持临时,但知识库在对话间持久化,或者结合本地文件系统访问和云存储的混合设置。中间件架构还处理自动上下文管理,当对话超过170K token时总结对话,并缓存提示以降低Anthropic模型的成本。
值得注意的是,deepagents在LangChain生态系统中处于特定的利基市场。LangGraph擅长构建结合智能体和逻辑的自定义工作流程,核心LangChain提供灵活的智能体循环,而deepagents针对想要具有内置规划和文件系统功能的自主、长期运行智能体的开发者。
如果你正在开发自主或长期运行的智能体,deepantis非常值得仔细研究。

构建能够推理复杂任务并与外部工具交互的AI智能体已成为关键能力,但现有框架经常叠加抽象,使实际发生的事情变得模糊不清。smolagents,Hugging Face的开源库,采用了一种不同的方法:将智能体逻辑提炼成大约1,000行专注的代码,开发者可以真正理解和修改。对于厌倦了框架臃肿或寻找更清晰的代理AI路径的Python开发者,smolagents提供了一个令人耳目一新的透明基础。
在核心层面,smolagents实现了通过迭代推理循环执行任务的多步智能体:观察、决定和行动,直到达到目标。该库的区别在于它对代码智能体的一等支持,其中LLM将操作编写为Python代码片段而不是JSON blob。这似乎是一个小细节,但研究表明它很重要:代码智能体使用的步骤大约减少30%,并且在基准测试中比传统的工具调用方法实现更好的性能。原因很简单:Python旨在清晰地表达计算操作,自然支持循环、条件和函数组合,而JSON根本无法匹配。
该库在部署这些智能体方面提供了真正的灵活性。你可以使用任何LLM,无论是在Hugging Face上托管的模型、通过OpenAI的GPT-4、通过Anthropic的Claude,甚至通过Transformers的本地模型。工具同样灵活:使用简单的装饰函数定义自定义工具,从LangChain导入,连接到MCP服务器,甚至使用Hugging Face Spaces作为工具。通过多个执行环境解决安全考虑,包括E2B沙箱、Docker容器和WebAssembly隔离。对于已经投资于Hugging Face生态系统的团队,smolagents自然集成,让你作为Spaces共享智能体和工具。
smolagents将自己定位为transformers.agents的继任者,并代表了Hugging Face对智能体框架应该是什么的演变观点:足够简单以完全理解,足够强大以用于真实应用,对其设计选择诚实。
在一个痴迷于更大模型和更大堆栈的领域,smolagents通过成为你能理解的那个而获胜。

构建复杂的AI应用程序通常意味着处理复杂的控制流:管理循环、分支、并行执行以及跨多个LLM调用和API交互的状态。传统方法如有向无环图(DAG)试图解决这个问题,但它们带来了显著的局限性:逻辑被编码到边而不是代码中,参数传递变得复杂,结果结构对于构建复杂的智能体系统的开发者来说感觉不自然。LlamaIndex Workflows通过事件驱动框架解决了这些挑战,该框架为多步AI应用程序开发带来了清晰性和控制。
在核心层面,Workflows围绕两个简单的原语组织应用程序:步骤和事件。步骤是用@step装饰的异步函数,处理传入事件并发出新事件。事件是用户定义的Pydantic对象,在步骤之间携带数据。这种事件驱动模式使复杂行为(如反射循环、并行执行和条件分支)感觉自然实现。该框架通过类型注释自动推断哪个步骤处理哪个事件,在工作流运行之前提供早期验证。这是代码变得多么简单的一个缩影:
Workflows特别有价值之处在于它基于Python asyncio的异步优先架构。由于LLM调用和API请求本质上是I/O绑定的,框架自然处理并发执行,步骤可以在适当时并行运行,你可以流式传输结果。Context对象提供优雅的状态管理,允许工作流程在步骤之间维护数据,序列化其状态,甚至从检查点恢复。
Workflows使复杂的AI行为感觉不像编排,而更像真实的软件设计。

大规模使用LLM时,成本效率很重要。大多数主要AI提供商提供批处理API,以实时端点成本的50%异步处理请求,这对于不需要立即响应的数据处理工作流程来说是可观的节省。挑战在于管理这些批处理操作:跟踪不同提供商的作业,监控成本,优雅地处理失败,并将结构化输出映射回源文档。Batchata通过统一的Python API解决了这个编排问题,使跨Anthropic、OpenAI和Google Gemini的批处理变得简单。
batchata专注于生产工作流程细节。除了基本的作业提交,该库还提供成本限制以防止预算超支,执行前估算费用的试运行模式,以及时间约束以确保批处理在可接受的窗口内完成。状态持久化意味着网络中断不会丢失你的进度。该库处理批处理API交互的机制——轮询完成、检索结果、管理重试——同时暴露感觉对Python开发者自然的干净接口。
结构化输出支持特别值得注意。使用Pydantic模型,你可以准确定义结果应该采用什么形状,batchata将相应地验证它们。开发者体验始终可靠。安装通过pip或uv很简单,配置使用环境变量或.env文件,API遵循熟悉的模式。交互式进度显示显示作业完成、批处理状态、当前成本与限制以及经过时间。结果以清晰的组织保存到JSON文件,使后处理变得简单。
更智能地批处理,花费更少,并为bachata之夜节省注意力。

在Python中处理文档通常意味着处理多种文件格式,如PDF、Word文档、Excel电子表格、图像等,每种格式都需要不同的库和方法。对于构建LLM驱动应用程序或文本分析管道的开发者,将这些不同的格式转换为统一的、机器可读的结构已成为常见的瓶颈。MarkItDown,微软的Python实用工具,通过提供单一工具将各种文件类型转换为Markdown(现代语言模型最理解的格式)来应对这一挑战。
MarkItDown的实用性在于其格式支持的广度及其专注于保留文档结构而不仅仅是提取原始文本。该库处理PowerPoint演示文稿、Word文档、Excel电子表格、PDF、图像(带OCR)、音频文件(带转录)、HTML以及基于文本的格式,如CSV和JSON。它甚至通过迭代其内容来处理ZIP存档。与通用提取工具不同,MarkItDown专门保留重要的结构元素(如标题、列表、表格和链接),以Markdown格式,使输出立即可用于LLM消费,无需额外的预处理。
开始使用很简单:使用pip install 'markitdown[all]'安装以获得完整的格式支持,或使用选择性extras如[pdf, docx, pptx]。你可以通过直观的CLI(markitdown file.pdf > [output.md](http://output.md/))或通过实例化MarkItDown()并调用convert()的Python API转换文件。它还与Azure Document Intelligence集成以进行高级PDF解析,可以使用LLM客户端描述演示文稿中的图像,并支持MCP服务器以便与Claude Desktop等工具无缝使用,使其成为构建AI就绪文档处理工作流程的强大选择。
MarkItDown积极维护,已经在Python社区看到采用,但值得注意的是,它针对机器消费而不是高保真人类可读转换进行了优化。Markdown输出干净且有结构,旨在实现token效率和LLM友好,但可能不会保留演示质量文档所需的每个格式细节。对于构建RAG系统、文档分析工具或任何需要将各种文档类型摄取到文本管道的应用程序,MarkItDown提供了一个实用的、良好集成的解决方案,消除了许多格式转换的复杂性。
如果你的工作涉及文档和语言模型,MarkItDown属于你的技术栈。

创建引人注目的数据可视化通常需要处理两个不同的挑战:设计正确的图表并将混乱的数据转换为可视化工具所期望的格式。大多数分析人员在单独的工具之间反弹:pandas用于数据整理,然后移动到Tableau或matplotlib进行图表制作,每次上下文切换都会失去势头。微软研究院的Data Formulator通过将数据转换和可视化创作统一到一个单一的、AI驱动的工作流程中来解决这种摩擦,感觉自然而不是限制。
Data Formulator的区别在于其混合交互模型。它不强迫你通过文本提示描述所有内容,而是在你需要时结合视觉拖放界面和自然语言。你通过熟悉的编码架指定图表设计,像任何现代可视化工具一样将字段拖动到视觉通道。区别?你可以引用尚不存在的字段。在编码架中输入"profit_margin"或"top_5_regions",可选地添加关于你的意思的自然语言提示,Data Formulator的AI后端会自动生成必要的转换代码。系统处理重塑、过滤、聚合和复杂的推导,而你专注于重要的分析问题。
该工具在迭代探索中特别出色,其中一个图表的见解自然导致下一个。Data Formulator维护"数据线程"历史,允许你从任何先前的可视化分支而无需重新开始。只想看那个销售图表中的表现最佳者?从你的历史中选择它,添加过滤指令,然后继续。架构将数据转换与图表规范干净地分离,使用Vega-Lite进行可视化并将转换工作委托给生成pandas或SQL代码的LLM。你可以在每一步检查生成的代码、转换的数据和结果图表——完全透明,没有乏味的实现工作。
Data Formulator是一个活跃的研究项目,而不是生产就绪的商业工具,这意味着你应该期待偶尔的粗糙边缘和不断发展的界面。然而,它已经可用于探索性分析,代表了真正的深思熟虑的AI辅助数据工作方法。通过尊重分析师在视觉上思考但迭代工作,并通过让AI处理转换苦差事而让人类控制分析方向,Data Formulator指向下一代数据工具可能变成的样子。对于进行探索性数据分析的Python开发者,值得尝试——不是作为现有工具包的替代品,而是作为可能改变某些分析工作流程方法的补充。

从非结构化文本中提取结构化数据长期以来一直是处理临床笔记、研究论文、法律文档和其他文本繁重领域的开发者的痛点。虽然LLM擅长理解自然语言,但让它们可靠地输出一致的、可追踪的结构化信息仍然具有挑战性。LangExtract,Google的开源Python库,通过专注的方法解决了这个问题:少样本学习、精确的源接地以及针对长文档的内置优化。
LangExtract的与众不同之处在于它对可追溯性的强调。每个提取的实体都映射回其在源文本中的确切字符位置,实现可视化高亮,使验证变得简单。此功能在医疗保健等领域特别有价值,其中准确性和可审计性是不可协商的。库通过少样本示例强制执行一致的输出模式,利用Gemini等模型中的受控生成来确保强大、结构化的结果。你用简单的提示和一个或两个质量示例定义提取任务——无需模型微调。
LangExtract解决了困扰从大型文档进行信息检索的"大海捞针"问题。它不依赖于对长文本的单次传递,而是采用优化的策略,结合文本分块、并行处理和多次提取传递。这种方法显著提高了从跨越数千字符的文档中提取多个实体时的召回率。该库还生成交互式HTML可视化,使在原始上下文中探索数百甚至数千个提取的实体变得容易。
开发者体验非常干净。安装通过pip很简单,API直观:你提供文本、提示描述和示例,然后调用lx.extract()。LangExtract支持各种LLM提供商,包括Gemini模型(云和Vertex AI)、OpenAI以及通过Ollama的本地模型。轻量级插件系统允许自定义提供商,而无需修改核心代码。该库甚至包括有用的默认值,如自动发现虚拟环境和尊重pyproject.toml配置。
对于使用非结构化文本并需要可靠、可追踪的结构化输出的开发者,LangExtract提供了一个值得探索的实用解决方案。

将机器学习应用于地理空间数据在从环境监测到城市规划等各个领域变得必不可少,但从卫星图像到可操作见解的路径仍然惊人地碎片化。研究人员和从业者经常发现自己拼凑通用的ML库和专门的地理空间工具,导航陡峭的学习曲线,在任何真实分析开始之前处理预处理管道。GeoAI,来自Open Geospatial Solutions社区的Python包,通过提供统一的接口来解决这个摩擦,该接口将现代AI框架与地理空间工作流程连接起来——使复杂的分析易于访问,而不牺牲技术深度。
在核心层面,GeoAI将PyTorch、Transformers和PyTorch Segmentation Models等专业库集成到一个专门为地理数据设计的内聚框架中。该包处理五个基本能力:搜索和下载遥感图像、通过自动芯片生成和标记准备数据集、训练分类和分割任务的模型、对新数据运行推理以及通过Leafmap集成可视化结果。这种端到端方法意味着你可以用比传统工作流程所需少得多的样板从原始卫星图像移动到训练有素的模型。
GeoAI的实用性在于它专注于常见的地理空间任务。建筑足迹提取、土地覆盖分类和变化检测——通常需要大量设置的分析——变得简单,具有高级API,在隐藏复杂性的同时不隐藏它。该包支持标准地理空间格式(GeoTIFF、GeoJSON、GeoPackage),并在可用时自动管理GPU加速。拥有超过10个模块和大量的Jupyter笔记本示例和教程,GeoAI既是研究工具也是教育资源。安装通过pip或conda很简单,opengeoai.org的综合文档包括通过实际应用的视频教程。
对于在AI和地理空间分析交叉点工作的Python开发者,GeoAI提供了一条实用的前进道路,减少了拥有卫星数据和实际对其做有用的事情之间的摩擦。值得为你的下一个地理空间项目探索!
AuthTuna – 为现代异步Python应用程序设计的安全框架,具有一流的FastAPI支持但框架无关的核心功能。功能包括综合身份验证系统,包括传统登录流程、社交SSO集成(Google、GitHub)、具有TOTP和电子邮件验证的多因素身份验证、基于角色的访问控制(RBAC)和细粒度权限检查。包括会话管理,具有设备指纹识别、数据库支持的存储、可配置的生命周期以及设备/IP/区域限制的安全控制。提供内置的用户仪表板、电子邮件验证系统、WebAuthn支持以及各种环境部署的广泛配置选项,从开发到生产,包括机密管理器集成。
FastRTC – 实时通信库,将Python函数通过WebRTC或WebSockets转换为音频和视频流。功能包括用于对话应用程序的自动语音检测和轮流、内置Gradio UI用于测试、在FastAPI应用程序上挂载时的自动WebRTC和WebSocket端点以及具有免费临时电话号码的电话支持。支持具有可自定义后端的音频和视频流模式,使其适用于构建语音助手、视频聊天应用程序、实时转录服务和计算机视觉应用程序。该库与流行的AI服务(如OpenAI、Anthropic Claude和Google Gemini)无缝集成,以创建智能对话界面。
hexora – 专为识别Python代码中的恶意和有害模式而设计的静态分析工具,用于安全审计目的。功能包括超过30个检测规则,涵盖代码执行、混淆、数据渗漏、可疑导入和恶意负载,具有基于置信度的评分以区分合法和恶意使用。支持审计单个文件、目录和虚拟环境,具有可自定义的输出格式和过滤选项。特别适用于供应链攻击检测、依赖审计以及分析来自各种来源(包括PyPI包和安全事件)的潜在恶意脚本。
opentemplate – 一体化Python项目模板,提供具有最先进工具的完整开发环境,用于代码质量、安全性和自动化。模板包括使用ruff和basedpyright的综合代码格式化和检查、使用pytest跨Python版本的自动化测试、具有自动部署的MkDocs文档,以及广泛的安全功能,包括SLSA 3级合规性、SBOM和静态安全分析。功能通过pyproject.toml的统一配置系统,控制pre-commit钩子、GitHub Actions和所有开发工具,以及自动依赖更新、发布管理和具有模板、标签和安全策略的综合GitHub存储库设置。
PyByntic – Pydantic的扩展,使用自定义二进制类型和注释启用模型的二进制序列化。功能包括类型安全的二进制字段定义,对数字类型(Int8、UInt32、Float64等)的精确控制、字符串处理(可变和固定长度选项)、日期/时间序列化以及对嵌套模型和列表的支持。该包与JSON序列化相比提供了显著的尺寸效率,使其适用于需要紧凑数据存储或网络传输的应用程序。开发包括综合测试、压缩支持和专用用例的自定义编码器功能。
pyochain – 函数式方法链库,为Python可迭代对象和字典带来流畅的、声明式的API。它提供核心组件,包括用于迭代器上惰性操作的Iter[T]、用于序列的急切评估的Seq[T]、用于可链接字典操作的Dict[K, V]、用于显式错误处理的Result[T, E]以及用于安全可选值处理的Option[T]。该库通过广泛使用泛型和重载来强调类型安全,在大型数据集上以惰性评估高效运行,并通过组合简单、可重用的函数而不是实现自定义类来鼓励函数范式。
Pyrefly – 类型检查器和语言服务器,结合闪电般的快速类型检查和综合IDE功能,包括代码导航、语义高亮和代码完成。用Rust构建以提高性能,它具有高级类型推断功能、流敏感类型分析和模块级增量性,具有优化的并行性。该工具支持命令行使用和编辑器集成,特别关注通过其模块化架构处理大型代码库,该架构高效处理模块的强连接组件。Pyrefly从既定的类型检查器(如Pyre、Pyright和MyPy)汲取灵感,同时在类型推断、流类型和增量检查策略方面做出独特的设计选择。
reaktiv – 状态管理库,通过自动依赖跟踪和更新启用声明式响应式编程。它提供三个核心构建块——Signal用于响应值、Computed用于派生状态、Effect用于副作用——它们像Excel电子表格一样工作,更改一个值会自动重新计算所有依赖公式。该库具有惰性评估、智能记忆、仅更新更改内容的细粒度响应性以及完整的类型安全支持。它通过消除忘记的更新、防止不一致的数据并使状态关系显式和集中来解决常见的状态管理问题。
Scraperr – 自托管网络抓取解决方案,旨在从网站提取数据而无需任何编码知识。功能包括基于XPath的元素定位、多个抓取作业的队列管理、域爬网功能、自定义标头支持、自动媒体下载以及结构化表格格式的结果可视化。使用FastAPI后端和Next.js前端构建,它提供markdown和CSV格式的数据导出选项、作业完成的通知通道以及用于管理抓取操作的用户友好界面。该平台强调道德抓取实践,并包括使用Docker或Helm部署的综合文档。
Skills – Claude技能系统的示例技能存储库,展示了从艺术和音乐等创意应用到Web应用程序测试和MCP服务器生成等技术任务的各种功能。技能是具有SKILL.md文件的自包含文件夹,包含Claude动态加载的指令和元数据,以提高专业任务的性能。存储库包括Apache 2.0许可下的开源示例技能和驱动Claude生产文档功能的源可用文档创建技能,作为开发人员创建自己的自定义技能的参考实现。
textcase – 文本大小写转换实用程序,在各种命名约定和格式样式(如snake_case、kebab-case、camelCase、PascalCase等)之间转换字符串。该实用程序准确地处理复杂的单词边界,包括首字母缩略词,并支持非ASCII字符,而不进行特定语言的推断。它具有可扩展的架构,允许定义自定义单词边界和大小写,使用无正则表达式算法进行高效操作,而无需外部依赖,并为可靠的文本处理工作流程提供完整的类型注释和综合测试覆盖。
Agent Development Kit (ADK) – 应用软件开发原则创建AI智能体的代码优先框架,旨在简化从简单任务到复杂系统的智能体工作流程的构建、部署和编排。功能包括丰富的工具生态系统,具有预构建的工具、OpenAPI规范和MCP工具集成、可扩展应用程序的模块化多智能体系统设计,以及包括Cloud Run和Vertex AI Agent Engine的灵活部署选项。该框架是模型无关和部署无关的,同时针对Gemini进行了优化,包括用于测试和调试的内置开发UI以及智能体评估工作流程。它与Agent2Agent (A2A)协议集成,用于远程智能体通信,并提供单智能体和多智能体协调器模式。
Archon – AI编码助手的指挥中心,作为MCP服务器,使AI智能体能够访问共享知识、上下文和任务。功能包括用于文档网站的智能网络爬虫、用于PDF和markdown文件的文档处理、具有语义嵌入的向量搜索以及具有AI辅助任务创建的分层项目管理。使用微服务架构构建,包括React前端、FastAPI后端、MCP服务器接口和PydanticAI智能体服务,所有这些都通过实时WebSocket更新和协作工作流程连接。与流行的AI编码助手(如Claude Code、Cursor和Windsurf)集成,通过自定义知识库和结构化任务管理增强其功能。
Attachments – 文件处理管道,旨在从各种文件格式中提取文本和图像以供大语言模型使用。通过统一的API和DSL语法支持高级操作的PDF、Microsoft Office文档、图像、网页、CSV文件、存储库和存档。功能包括用于自定义处理管道的可扩展插件架构,具有加载器、修饰符、演示器、精炼器和适配器。包括OpenAI、Anthropic Claude和DSPy框架的内置集成,以及用于网络抓取的CSS选择器突出显示和图像转换等高级功能。
Claude Agent SDK – 用于与Claude Agent集成的SDK,提供简单的查询操作和通过双向通信的高级对话功能。功能包括用于基本交互的异步查询函数、实现为进程内MCP服务器的自定义工具,用于定义Claude可以调用的Python函数,以及Claude智能体循环期间的自动反馈和确定性处理的钩子。支持具有内部和外部MCP服务器的工具管理、工作目录配置、权限模式以及用于构建复杂的Claude驱动应用程序的综合错误处理。
df2tables – 旨在将Pandas和Polars DataFrame转换为由DataTables JavaScript库支持的交互式HTML表格的实用程序。该工具专注于Web框架集成,具有Flask、Django、FastAPI和其他Web框架的无缝嵌入功能。它直接从JavaScript数组渲染表格,以提供快速性能和紧凑的文件大小,能够在保持完全响应的同时流畅浏览大型数据集。该实用程序包括过滤、排序、列控制、通过Python可自定义DataTables配置以及只需要pandas或polars的最小依赖等功能。
FlashMLA – 专为多头潜在注意力(MLA)计算优化的注意力内核库,为DeepSeek-V3和DeepSeek-V3.2-Exp模型提供支持。该库为预填充和解码阶段实现了稀疏和密集注意力内核,具有令牌级优化的DeepSeek稀疏注意力(DSA)和FP8 KV缓存支持。它为SM90和SM100 GPU架构提供高性能实现,在H800 GPU上的计算绑定配置中达到高达660 TFlops,并支持多查询注意力和多头注意力模式。该库针对推理工作负载进行了优化,并包括用于内存绑定和计算绑定场景的专用内核。
Flowfile – 可视化ETL工具和库套件,将拖放式工作流程构建与Polars数据框的速度相结合,以实现高性能数据处理。它作为三个相互连接的服务运行,包括可视化设计器(Electron + Vue)、ETL引擎(FastAPI)和计算工作者,将每个流表示为有向无环图(DAG),其中节点代表数据操作。该平台支持复杂的数据转换,如模糊匹配连接、文本处理、过滤、分组和自定义公式,同时允许用户将可视化流导出为独立的Python/Polars代码以用于生产部署。Flowfile包括桌面应用程序和程序化FlowFrame API,提供类似Polars的接口,用于在Python代码中创建数据管道。
Gitingest – Git仓库文本转换器,专门设计用于将任何Git仓库转换为针对大语言模型提示优化的格式。该工具智能地处理仓库内容,以创建结构化的文本摘要,包括文件和目录结构、大小统计信息和token计数信息。它支持本地目录和远程GitHub仓库(包括具有令牌身份验证的私有仓库),提供命令行界面和Python包集成,并包括.gitignore尊重和子模块处理等智能格式化功能。该包对于使用AI工具并以高效、结构化的格式向LLM提供仓库上下文的开发人员特别有价值。
gpt-oss – 开放权重语言模型,以两种变体发布:gpt-oss-120b(117B参数,5.1B活动)用于单个80GB GPU上的生产使用,以及gpt-oss-20b(21B参数,3.6B活动)用于更低延迟和本地部署。两个模型都具有可配置的推理工作量、完整的思维链访问、原生函数调用功能、网络浏览和Python代码执行工具以及用于高效内存使用的MXFP4量化。模型需要harmony响应格式,并包括用于商业部署的Apache 2.0许可。
MaxText – 用纯Python/JAX编写的高性能、高度可扩展的LLM库,针对谷歌云TPU和GPU进行训练。该库包括主要模型的预构建实现,如Gemma、Llama、DeepSeek、Qwen和Mistral,支持预训练(高达数万个芯片)和可扩展的后训练技术,如监督微调(SFT)和组相对策略优化(GRPO)。MaxText从单个主机到非常大的集群实现高模型FLOP利用率(MFU)和token/秒性能,同时通过JAX和XLA编译器的力量保持简单。该库既作为从头开始构建模型的参考实现,也作为对现有模型进行后训练的可扩展框架,将自己定位为研究和生产环境中雄心勃勃的LLM项目的起点。
Memvid – AI内存存储系统,将文本块转换为嵌入视频帧中的QR码,利用视频压缩编解码器实现比传统向量数据库小50-100倍的存储。该系统将文本编码为MP4文件中的QR码,同时通过将嵌入映射到帧号的智能索引保持毫秒级语义搜索能力。功能包括PDF处理、交互式Web UI、并行处理以及零基础架构要求的离线优先设计。性能包括索引期间处理约10K块/秒、100万块的亚100ms搜索时间以及从100MB文本到1-2MB视频文件的戏剧性存储减少。
nanochat – 在单个、最小、可破解的代码库中完整实现类似ChatGPT的大语言模型,处理从标记化到Web服务的整个管道。训练系统设计用于在GPU集群上运行,具有可配置的模型大小,从100美元到1000美元的培训预算,生成在数十亿个token上训练的19亿参数模型。功能包括分布式训练能力、评估指标、强化学习、用于定制的合成数据生成以及基于Web的聊天界面。该框架作为LLM101n课程的顶点项目,通过认知简单性强调可访问性,同时保持与历史模型(如GPT-2)相当的性能。
OmniParser – 屏幕解析工具,旨在将用户界面截图解析为结构化和易于理解的元素,显著增强视觉语言模型(如GPT-4V)生成可准确地在相应界面区域中接地操作的能力。该工具具有交互式区域检测、图标功能描述能力以及包括小图标和可交互性预测的细粒度元素检测。它包括用于控制Windows 11 VM的OmniTool,并支持与各种大语言模型(包括OpenAI、DeepSeek、Qwen和Anthropic Computer Use)的集成。OmniParser在GUI接地基准测试中取得了最先进的结果,对于构建纯基于视觉的GUI智能体特别有效。
OpenAI Agents SDK – 用于构建多智能体工作流程的框架,通过提供商无关的方法支持OpenAI API和100多个其他LLM。核心功能包括配置有指令、工具和智能体间控制转移的智能体、可配置的输入/输出验证护栏、对话历史的自动会话管理以及用于调试和优化的内置跟踪。该框架支持复杂的智能体模式,包括确定性流和迭代循环,通过Temporal集成支持长期运行的工作流程以及人机协作功能。会话内存可以使用SQLite、Redis或自定义实现,以在多次智能体运行之间维护对话上下文。
OpenManus – 用于构建通用AI智能体的开源框架,可以执行计算机使用任务和Web自动化,而无需邀请码或受限访问。该框架包括多种智能体类型,包括通用智能体和专用数据分析智能体,支持通过Playwright集成的浏览器自动化。它提供多智能体工作流程以及与各种LLM API(包括OpenAI GPT模型)的集成,提供单智能体和多智能体执行模式。该项目通过用于高级智能体训练和优化的OpenManus-RL提供强化学习功能。
OWL – 多智能体协作框架,旨在为现实世界场景中的通用协助和任务自动化。该框架利用动态智能体交互,实现跨各种领域(包括Web交互、文档处理、代码执行和多媒体分析)的自然、高效和强大的自动化。构建在CAMEL-AI框架之上,它提供了全面的工具包生态系统,具有浏览器自动化、搜索集成以及各种领域的专用工具。OWL在GAIA基准测试中取得了顶级性能,在开源框架中排名第一,具有用于劳动力学习和优化的高级功能。
Parlant – AI智能体框架,通过确保智能体遵循指令而不是希望它们遵循来解决LLM不可预测性的核心问题。它不依赖复杂的系统提示,而是使用行为指南、对话旅程、工具集成和领域适配来创建可预测、一致的智能体行为。该框架包括动态指南匹配、内置护栏以防止幻觉、对话分析以及智能体决策的完全可解释性等功能。它特别适用于可靠性和合规性至关重要的生产环境,如金融服务、医疗保健、电子商务和法律应用程序。
TensorFlow Optimizers Collection – 在TensorFlow中实现最先进深度学习优化算法的综合库。该集合包括自适应优化器(如AdaBelief、AdamP和RAdam)、二阶方法(如Sophia和Shampoo)、混合方法(如结合多种技术的Ranger变体)、内存高效优化器(如AdaFactor和SM3)、分布式训练优化器(如LAMB和Muon)以及实验性方法(如具有情感更新的EmoNavi)。许多优化器支持高级功能,包括梯度中心化、lookahead机制、内存效率的子集归一化以及自动步长适应。
trackio – 轻量级实验跟踪库,旨在作为wandb的直接替代品,与wandb.init、wandb.log和wandb.finish函数的API兼容。功能包括默认情况下在本地运行仪表板并将日志持久化到本地SQLite数据库的本地优先设计,可选择部署到Hugging Face Spaces进行远程托管。包括基于Gradio的仪表板,用于可视化实验,可以嵌入网站和博客文章,具有可自定义的查询参数,用于过滤项目、指标和显示选项。构建时考虑了可扩展性,使用少于5,000行Python代码,使开发人员能够轻松fork并添加自定义功能,同时保持一切免费,包括Hugging Face托管。
除了我们的首选之外,许多被低估的库也脱颖而出。我们检查了数百个库,并将所有内容组织成带有简短有用摘要的类别,以便于发现。
| 类别 | 库 | GitHub星标 | 描述 |
|---|---|---|---|
| agex | |||
| agex-ui | |||
| Grasp Agents | |||
| IntentGraph | |||
| Linden | |||
| mcp-agent | |||
| Notte | |||
| Pybotchi | |||
| RESK-LLM | |||
| Rival AI | |||
| Pipelex | |||
| RocketRAG | |||
| CMQ | |||
| throttlekit | |||
| transfunctions | |||
| Wove | |||
| TursoPy | |||
| Envyte | |||
| FastAPI Cloud CLI | |||
| gs-batch-pdf | |||
| Mininterface | |||
| SSHUP | |||
| Otary | |||
| fastquadtree | |||
| molabel | |||
| Python Pest | |||
| SeedLayer | |||
| SPDL | |||
| Swizzle | |||
| Archivey | |||
| KickApi | |||
| pyro-mysql | |||
| StupidSimple Dataclasses Codec | |||
| calc-workbook | |||
| Elusion | |||
| Eruo Data Studio | |||
| lilpipe | |||
| Parmancer | |||
| PipeFunc | |||
| Pipevine | |||
| PydSQL | |||
| trendspyg | |||
| smartcols | |||
| Coffy | |||
| MotionSaver | |||
| WinUp | |||
| Zypher | |||
| Erys | |||
| ell | |||
| flowmark | |||
| mcputil | |||
| OpenAI Harmony | |||
| ProML (Prompt Markup Language) | |||
| Prompt Components | |||
| Prompture | |||
| SimplePrompts | |||
| Universal Tool Calling Protocol (UTCP) | |||
| Fast-LLM | |||
| TorchSystem | |||
| Tsururu (TSForesight) | |||
| DL Type | |||
| Python Testing Tools MCP Server | |||
| treemind | |||
| Verdict | |||
| MCP Kit Python | |||
| npcpy | |||
| doespythonhaveit | |||
| tenets | |||
| Cap'n Web Python | |||
| httpmorph | |||
| Miniappi | |||
| PyWebTransport | |||
| robinzhon | |||
| WebPath | |||
| thoad | |||
| Clockwork | |||
| Cybersecurity Psychology Framework (CPF) | |||
| darkcore | |||
| DiscoveryLastFM | |||
| Fusebox | |||
| Injectipy | |||
| Klyne | |||
| MIDI Scripter | |||
| numeth | |||
| PAR CLI TTS | |||
| pycaps | |||
| PyDepends | |||
| Pylan | |||
| Python for Nonprofits | |||
| Quantium | |||
| Reduino | |||
| TiBi | |||
| Torch Lens Maker | |||
| torch-molecule | |||
| TurtleSC | |||
| bbox-align | |||
| Morphik | |||
| OCR-StringDist | |||
| ConfOpt | |||
| Functioneer | |||
| generalized-dual | |||
| Solvex | |||
| python-cq | |||
| cogeol | |||
| comver | |||
| dirstree | |||
| loadfig | |||
| pipask | |||
| pywinselect | |||
| TripWire | |||
| veld | |||
| venv-rs | |||
| venv-stack | |||
| dowhen | |||
| GrapeQL | |||
| lintkit | |||
| notata | |||
| pretty-dir | dir函数提供有组织和颜色化的输出。 | ||
| Request Speed Test | |||
| structlog-journald | |||
| Trevis | |||
| Temporals | |||
| detroit | |||
| RowDump | |||
| proxyutils | |||
| PyBA | |||
| AirFlask | |||
| APIException | |||
| ecma426 | |||
| Fast Channels | |||
| fastapi-async-storages | |||
| Func To Web | |||
| html2pic | |||
| Lazy Ninja | |||
| panel-material-ui | |||
| pyeasydeploy | |||
| Python Hiccup | |||
| WEP — Web Embedded Python |
2026年的Python生态系统展现出了令人兴奋的多样性和创新。虽然LLM和AI工具占据了重要位置,但Python在通用开发、数据处理、科学计算等领域的持续进化同样值得关注。无论是Rust驱动的性能提升、新的开发范式,还是AI与传统工具的深度融合,这些库都在推动Python生态系统向前发展。
选择合适工具的关键在于理解你的具体需求:是追求极致性能、改善开发体验,还是构建下一代AI应用?无论你的目标如何,2026年的Python库生态都有适合你的选择。
最后感谢阅读!欢迎关注我,微信公众号: 倔强青铜三。点赞、收藏、关注,一键三连!!欢迎 点击 【👍喜欢作者】 按钮进行 打赏💰💰,请我喝一杯咖啡☕️!