Prompt Engineering实战:10个让大模型输出更精准的技巧
前言
Prompt Engineering(提示词工程)是与大模型高效协作的核心技能。好的 Prompt 能让模型输出质量提升数倍。本文总结 10 个实战技巧,附代码示例,帮你立即上手。
技巧1:角色设定(Role Prompting)
给模型设定专业角色,输出质量显著提升。
// 差的写法
String prompt = "帮我写一段Java代码实现排序";
// 好的写法
...
把设备能力接进 OpenClaw:Node 应用的架构与实现
随着大模型的飞快发展 AI 接入、自动化接入、工具接入非常流行,但一旦问题落到“真实设备能力怎么进入系统”时,情况就变得复杂。
摄像头怎么接?截图怎么做?通知、照片、位置这些能力如何统一暴露?更重要的是,这些能力不是在本地脚本里临时调用一下,而是要进入一个可连接、可调度、可鉴权、可回传结果的系统里。
它 ...
Spring AI Alibaba 人工介入实战|Human-in-the-Loop 让 AI 更可靠
引言
在构建AI智能体应用时,我们经常面临一个关键挑战:如何让AI在执行某些敏感操作前获得人工确认?Spring AI Alibaba框架提供了强大的人工介入(Human-in-the-Loop)机制,让开发者能够精确控制AI工具的执行流程,在关键节点引入人工审批环节。
本文将通过一个完整的实战示例,详细介绍如何在Spring AI Alibaba应用中实 ...
Spring AI实战:10分钟接入OpenAI实现流式对话
前言
Spring AI 是 Spring 官方推出的 AI 集成框架,让 Java 开发者能用熟悉的 Spring 风格快速接入各大 AI 模型。本文带你 10 分钟完成 OpenAI 接入,并实现流式对话效果。
一、环境准备
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-openai-spring-boot-starter</artifactId>
...
RAG实战:用LangChain4j构建企业级知识库问答系统
前言
RAG(Retrieval-Augmented Generation,检索增强生成)是当前企业落地大模型最主流的方案。它解决了大模型"幻觉"和"知识截止"两大痛点,让 AI 能够基于企业私有知识库进行精准问答。本文用 LangChain4j 带你从零构建一个完整的 RAG 系统。
一、RAG 核心原理
RAG 的工作流程分三步:
索引阶段:将文档切片 → 向量化 ...
Function Calling实战:让大模型学会调用外部工具
一、什么是 Function Calling?
Function Calling(函数调用)是 OpenAI 在 2023 年推出的一项重要功能,它允许大语言模型在生成文本的过程中,主动调用外部函数或 API,从而实现与外部世界的交互。
简单来说,Function Calling 让 AI 不再只是一个"聊天机器",而是变成了可以执行实际任务的"智能助手"。
二、核心原理
Func ...
"INMS: Memory Sharing for Large Language Model based Agents" 论文笔记
背景
现有的 memory 工作主要都关注 Agent 独立利用自身存储的记忆来完成任务,这种孤立的范式忽视了 Agents 间的互动和集体记忆的巨大潜力。当前方法常常未能模拟复杂多代理环境中自然发生的异步对话和知识交流,忽视了拥有独特对话历史和专业培训的 Agents 之间的固有多样性和互补性
因此本文提出了 INMS 框架,将范式从 ...
3分钟部署本地大模型,零成本实现 Token 自由!
在 AI 学习和开发中,很多人会面临这些困扰:云厂商 API 计费贵、注册实名门槛高、敏感代码不敢上传、没网就不能用。
其实,本地部署早已不再复杂。目前 GitHub 上 16.6 万 Star 的开源项目 Ollama,已经把门槛降到了极致。
它能自动处理环境和硬件加速,让你在 3 分钟内拥有一套完全私有、零成本的大模型服务。
下面 ...
图片防御与lvlm攻击论文阅读笔记
Anti-Tamper Protection for Unauthorized Individual Image Generation
图1.(a)伪造攻击者通过从社交媒体上拍照生成数据所有者的虚假个人图像,并将其提交给服务提供商。(b)数据所有者可以在服务提供商的协助下,向其图像中注入保护性扰动,这样当攻击者试图生成虚假个人图像时,会得到质量低下的结果。然而,如果攻 ...
和AI一起搞事情#2:边剥龙虾&边做个中医技能来起号
春节前,科技圈被一只“龙虾(OpenClaw)”突袭了。
朋友圈里的各类标题党简直不忍直视:“AGI降临!”“最强记忆管理!”“打工人的终结者!”
看了看底层代码,第一感受是:“确实是一次很棒的产品级创新,但要说技术上的颠覆?uh\(#&en!%\)#^感觉好像也没有
但是!只有用了才有发言权。所以这篇文章分两部分:
实战环节 ...
不用装软件!这款MicroPython浏览器 IDE :让你在手机上也能调试树莓派 Pico
你是不是也被这些问题搞疯过?
👉 换台电脑写 MicroPython,得重新装 Python、装驱动、配环境,半小时起步
👉 想在手机上改两行代码救急,却找不到能直接跑的 IDE
👉 出差没网,本地 IDE 又没装在随身设备上,代码改不了
👉 设备连不上 USB,远程调试折腾半天还失败
今天给大家挖到一个零门槛神器——ViperIDE, ...
AI 工程化实战:从零手搓代码,这一次彻底搞懂MCP!
本文深入剖析MCP(Model Context Protocol,模型上下文协议)的底层运作机制、核心价值与完整实现方案,帮助你彻底理解这一AI时代的"Type-C 接口",掌握从零构建MCP客户端和服务端的能力。
一、为什么需要 MCP?
在深入 MCP 之前,我们需要先回顾其技术前置——Function Calling(工具调用)。如果你对 Function Calling ...
大模型到底是啥?运维人10分钟搞懂(不用数学)
前言
最近笔者一直在系统性啃AI相关的内容,之前也零散做过不少AI小工具,很多老哥问我大模型到底是个啥东西,是不是要啃一堆高等数学才能搞明白?完全不用,今天用运维人听得懂的话,把大模型核心原理讲透,看完你就能跟产品battle AI方案了。
大模型的本质:下一词预测器
别听那些自媒体吹得玄乎,所有大模型的本质,说 ...
DeepSeek 使用完全指南:从入门到高效提问的10个技巧
前言
DeepSeek作为国产顶级大模型,已经成为开发者日常工作中不可或缺的工具。但很多人只是简单地输入问题,并没有充分发挥它的实力。本文总结10个实用技巧,让你的DeepSeek使用效率翻倍。
技巧1:明确角色设定
在提问前先告诉DeepSeek它是谁:
你是一个资深10年的Java高级开发工程师,熟悉Spring Boot、分布式架构和性能优 ...
"Memory in the Age of AI Agents: A Survey" 论文笔记
背景
智能体记忆如今极其碎片化,研究人员们发现,当大家谈论智能体记忆时,所指的可能完全是不同的事物:有人专注于存储用户对话历史,有人研究如何从失败中提炼策略,还有人试图将知识直接烙进模型参数里。同时,大量新兴术语(如陈述性记忆、情景记忆、参数记忆等)的涌现,进一步模糊了概念的清晰度
因此,这篇综述直指 ...
玩一玩微软的 1 bit 模型:BitNet. 一个 CPU 就能跑起来的大模型
作者:张富春(ahfuzhang),转载时请注明作者和引用链接,谢谢!
cnblogs博客
zhihu
Github
公众号:一本正经的瞎扯
能不能用 1 个 CPU 加很少的内存就能把大模型跑起来?
微软开源的 BitNet (https://github.com/microsoft/BitNet) 实现了这一点。
可以通过这个网址去在线体验这个模型的效果:https://demo-bitnet-h0h8hc ...
Docker+本地部署openclaw+接入IM+创建Agent
Docker+deepseek云模型本地部署openclaw
一、配置openclaw+QQBot
docker
请确保电脑上已配置好 Docker 和 Docker Compose。
下载链接: Docker: Accelerated Container Application Development 或 Docker中文网
根据系统选择适用版本,安装步骤可查。
# 检查 Docker 版本
docker --version
# 检查 Docker Compose 版本
d ...
ICLR2026 | Ada-RefSR: 自适应隐式相关建模,开启“信而有证”的参考超分新范式
作者: vivo BlueImage Lab摘要:我们针对于单步SD的超分模型容易出现幻觉问题,提出了信而有证参考超分新范式,基于单步扩散模型构建,首先通过注意力机制引入参考信息,随后通过隐式相关性建模进行过滤与验证,对应的论文已被 ICLR2026 接收!该工作由vivo BlueImage Lab,南开大学共同完成。
项目主页:
https://github. ...
AIAgent开发-LangChain
前言
回顾人类与机器的协同模式已经经历了如下几大阶段:
搜索引擎阶段: 机器负责信息检索,人进行逻辑推理、任务执行。
LLM阶段:机器负责内容推理和任务执行,人输入指令。
Agent阶段:机器负责推理决策 + 自主执行,人输入目标定义、需求明确、结果校验。
如运维领域已经出现了SQL/代码审计、AIOPS故障定位根因分析、OA ...
从一个地狱笑话看大模型的推理机制
作者:张富春(ahfuzhang),转载时请注明作者和引用链接,谢谢!
cnblogs博客
zhihu
Github
公众号:一本正经的瞎扯
从一个地狱笑话看大模型的推理机制
我大约在七年前就看见了这个段子:
三个苹果平均分给五个小朋友,只能切两刀,应该怎么切?
评论区置顶的内容是这么写的:
一刀捅死一个小朋友,然后剩下的三个小朋 ...