08/31/2025
08/31/2025
Bobst Library

使用AI工具生成“prompt”;
搭建Midjourney,OpenArt,Kling,ElevenLabs工作流(Midjourney&Kling视觉创意,ElevenLabs 声音表现,Openarts 视觉优化风格统一);
使用Nano Banana;
P5js完成一个章节;
TD完成一个案例学习;
UE5完成一个蓝图编译;
提示词,提示词工程,上下文,上下文工程
用户发给AI的话叫做“提示词Prompt”
system prompt(系统提示词)用户通常无法直接修改
Customize ChatGPT中“what traits should ChatGPT have”可以间接影响系统提示词,从而影响CHATGPT的输出内容。
user prompt(用户提示词)我说“你好”
将两种提示词组合,引导AI。返回特定风格回复的做法叫提示词工程(Prompt Engineering)
Zero-Shot:只提具体要求,不给出参考案例给AI
Few-Shot: 给出例子,AI可以根据案例给出预期答案
思维链 Chain-of-Thought(CoT):通过提示词逐步引导AI思考,
例如:1+2*3是多少,不要直接给出答案,拆解问题,给出中间结果。(大部分网站已经完整具备思维链,不需要用户手动输入额外提示词)
上文&上下文工程:
用户-AI agent-大语言模型
AI的记忆需要AI Agent或聊天机器人服务器,服务器保存对话记录,当用户反复对话时,AI Agent将包含所有会话的历史记录发送给大语言模型,从而大预言模型拥有记忆。
管理和修改历史记录的技巧则是上下文工程Context Engineering。
AI Agent 有一套工具箱,内置有例如网页浏览功能等,当用户输入user prompt给AI Agent时,聊天机器人将能使用的工具以及User的问题发送给大语言模型。
大语言模型收到信息后使用toolcall:浏览网页 google.com/用户问题
于是在聊天机器人储存的上下文历史记录中出现了:
user:问题
toolcall:浏览网页google.com/问题
toolresponse:
对于复杂的问题这种tool的请求和回复可能会重复几十次甚至上百次,在过程中AI很可能忘记问题本身,因为用户给出的Prompt只有最初的问题,因此如何设计一套自动管理和修改上下文的系统,确保AI在搜索过程中始终符合用户最初要求,是上下文工程需要解决的核心问题。
解决方案一:指导AI记笔记:system prompt
1.分解任务2.写任务清单3.按清单执行4.更新笔记5.同时记录搜索结果(方便总结提炼关键信息)
解决方案二:只保留新的消息而舍弃老的信息/压缩信息
toolresponse可能会过长,类似论文等超长内容,这样的内容会被AI Agent储存至向量数据库,toolresponse数据用query_doc工具查询,这样大语言模型只需要查找感兴趣的片段即可。
新建html文件,打开VS code save as html文件
- 打开 VS Code。
- 新建一个文件(File → New File)。
- 输入代码。
- 保存的时候命名为 index.html。
- 用浏览器打开
P5JS