Cursor 是基于VS Code开发的一款编辑器,支持多种语言的开发编辑。与传统的开发工具相比,它有多种优势:与AI无缝集成,响应速度快,占用内存小。但很多同学在"起步"过程中遇到了一点点问题,导致起步不成功。本文描述一些实用的小技巧,帮助大家快速用Cursor开启AI生涯。
传统的 Web 应用都是由人来操作的,用户需要学习帮助文档,操作成本相对较高,如果能让 AI 来帮我们操作,我们只需要在关键节点进行确认的动作即可,是不是就非常方便?
Tokio可以说是rust中最热门的库,对于异步与并发进行了很好的支持。大多数基于rust的开源框架都使用到了Tokio,因此在介绍这些实现开源框架时经常会被问到:底层的异步和并发是怎么实现的?我只能回答:底层的异步和并发都是由Tokio控制的。这显然不是一个令人满意的回答。因此本文章将对于Tokio的基本方法和底层逻辑进行分析。
SPI机制在Java中应用广泛。例如:JDBC中的数据库连接驱动使用SPI机制,只定义了数据库连接接口的规范,而具体实现由各大数据库厂商实现,不同数据库的实现不同,我们常用的mysql的驱动也实现了其接口规范,通过这种方式,JDBC数据库连接可以适配不同的数据库。
GPU最初的使命是加速图形渲染。而渲染一帧图像,本质上就是对数百万个像素点进行相似的计算,这天然就是一种大规模并行任务。
本文介绍了携程机票前端基于Server-Sent Events(SSE)实现服务端推送的企业级全链路通用技术解决方案。深入探讨 SSE 技术在应用过程中包括方案对比、技术选型、链路层优化以及实际效果等多维度的技术细节,为类似使用场景提供普适性参考和借鉴。该方案设计目标是实现通用性,适用于各种网络架构和业务场景。
使用Spring Boot开发API的时候,读取请求参数是服务端编码中最基本的一项操作,Spring Boot中也提供了多种机制来满足不同的API设计要求。
在业务数据的测试集(总共512条,平均输入1812 tokens,输出978 tokens)上,我们经过理论推算,如果两台H20(16卡)部署fp8满血版Deepseek,吞吐的保守上限是18000+ tokens/s。在2月底,开源vllm/sglang的吞吐1400 tokens/s和2200 tokens/s,存在巨大的优化空间。经过4个月的快速迭代后,vllm/sglang最新版都上升到6100 tokens/s左右。
随着人工智能技术的爆发式增长,企业级应用对AI大模型的分析、推理、生成等能力需求日益迫切。然而,传统模型面临“数据孤岛”困境:大量关键业务数据分散在本地系统、专有数据库或第三方服务中,难以通过简单的提示词直接注入模型,导致模型理解受限、决策质量不足。更严峻的是,对于涉及隐私或合规要求的数据(如企业财务信息、医疗记录等),直接暴露给云端模型存在显著安全风险。如何打破数据壁垒,同时确保敏感信息的安全可控,成为AI落地的核心挑战。
2025 年 6 月,一段北京大学数学科学学院教师韦东奕在食堂就餐被多人围观拍摄的视频在网络传播,引发网友热议。画面中,不少围观者全然不顾正在专心就餐的韦东奕的感受,凑到他身边拍照、合影,还不时询问 "拍完了吗"" 我的拍上了吗 ",俨然把韦东奕当成拍照打卡点。视频显示,多人围绕着正在吃饭的韦东奕拍摄,还有人大声问道:" 我的拍上了吗?" 韦东奕在食堂吃饭时,面对喧闹的人群一脸冷漠,那是无声的抗议。
最近,大家都在讨论MCP(Model Context Protocol),它通过标准化协议,实现了工具和AI应用的解耦,推动了AI Agent应用研发范式的转变。尽管MCP非常有价值,但它并非万能。一个"聪明的"AI Agent不仅仅依赖于MCP。MCP主要解决了工具调用、Prompt模板、资源访问等标准化问题,但对于AI Agent的工具选择、任务规划、多Agent协同等核心挑战,仍存在局限,并在实际复杂应用场景中暴露出一些不足。
大语言模型(LLM)很火,讨论的文章铺天盖地,但对于没有机器学习背景的人来说,看多了只是粗浅了解了一堆概念,疑惑只增不减。
Spring Boot 4.0.0 版本引入了基于 JSpecify 注解的 Null 安全改进,这一举措无疑为 Java 开发者带来了福音。它就像是为代码穿上了一层坚固的 “铠甲”,能够在编译阶段就发现潜在的 Null 指针风险,提前预警,避免在运行时出现令人头疼的 NPE,从而大大提升了代码的质量和可靠性 ,让开发者能够更加专注于业务逻辑的实现,而无需在 Null 检查上花费过多的精力。
随着业务的发展,笔者项目对应的Spring Boot工程的依赖越来越多。随着依赖数量的增长,Spring 容器需要加载更多组件、解析复杂依赖并执行自动装配,导致项目启动时间显著增长。在日常开发或测试过程中,一旦因为配置变更或者其他热部署不生效的变更时,项目重启就需要等待很长的时间影响代码的交付。加快Spring项目的启动可以更好的投入项目中,提升开发效率。
你肯定遇到过那些场面:你的AI助手自信满满地告诉你“北京在长江以南”,或者信誓旦旦地说“牛顿发明了电灯泡”,是不是让人啼笑皆非?这些就是所谓的“幻觉”——就像你有一个知识渊博但偶尔会“异想天开”的朋友。唉,这就是我诞生之前的AI常态。
本文围绕大语言模型(LLMs)智能应用中的工具与数据接入问题,系统介绍了两种主流方案:基于 Agent + Function Call 的动态调度机制与基于 MCP(Model Context Protocol)的标准化接入框架。通过梳理各自的工作原理、应用流程及典型实践,分析了不同场景下的适用性选择。同时,结合实际部署经验,探讨了两种模式在未来智能系统演进中的协同融合方向。
MCP协议的初衷是希望能将大模型的工具调用来做统一,对于 MCP 的原理介绍的文章已经随处可见,相信大家都有自己的见解,这里简单介绍一些没有MCP之前的痛点问题,帮助大家理解为何需要MCP。
在 Spring 框架的体系中,Bean 注入是极为关键的核心功能,它是依赖注入(Dependency Injection,简称 DI)原则的一种具体实现方式。从本质上来说,Bean 注入指的是 Spring 容器在运行期间,能够自动将某个对象所依赖的其他对象,精准地注入到该对象当中 。
Spring Boot 作为 Java 开发领域中广受欢迎的框架,一直以来都致力于简化和加速应用程序的开发过程。而 Spring Boot 4.0.0 的发布,无疑是 Java 开发社区的一个重要里程碑,它带来了众多令人振奋的新特性和显著的改进,进一步巩固了 Spring Boot 在现代化应用开发中的领先地位。
免费且方便的模型部署方案,市面上有ollama,VLLM,SGLang,个人感觉已经被这三方进行了瓜分,从使用上感觉确实好用。从其特点和应用场景进行分析。
关注时代Java