清华大学 普通人如何抓住DeepSeek红利强化共情:增加“我知道现在项目关键期,非常抱歉给您添麻烦”。 • 弱化模糊表述:将“家里有事”改为“家人突发重病需陪护”,避免领导误解为小事。 • 明确行动:补充“请假期间可随时联系我处理紧急问题”。 3. 预判领导反应并准备预案(用AI模拟问答) p 操作:输入:“如果领导说‘项目缺了你不行,能不能缩短假期?’如何回应?” p AI建议回应: • 共情+底线+替代方案: “我完全理解项目的重要性,但家人目前手术风险高, “生活太累?DeepSeek帮你‘减负’到家! 场景1:职场妈妈的晨间战役(日常琐事管理) 优先级排序(幼儿园事务>会议准备>生活采购) 生成最优动线:地图标注幼儿园/干洗店/超市与公司的位置关系 即时服务对接: ✓ 调用社区跑腿API下单手工材料配送 ✓ 接入干洗店智能柜系统预约取件码 ✓ 生鲜平台比价后自动补货牛奶 ③ 会议准备: 自动提取上周销售数据生成可视化图表框架 调取历史报告模板进行语义重组 ④ 风险预警: 时间利用率提升40%,晨间压力值降低65%,关键事务完成率100% 情景还原:7:15分,被幼儿园家长群消息惊醒,发现今天轮到自己带班级手工材料。同时想起丈夫出差前嘱咐的干洗店取 衣,冰箱牛奶已空需采购,下午3点部门汇报会需准备PPT,而此刻灶台上烧着的水即将沸腾。 p 第一步先问AI:这些事情我是否可能全部完成 p 第二步再问AI:如果能完成,哪些事情要优先 做,先后顺序是什么? p 第三步继续问:是否有高效的工具或者办法我0 码力 | 65 页 | 4.47 MB | 8 月前3
开源中国 2023 大模型(LLM)技术报告32 LLM 基础设施:大模型框架及微调 (Fine Tuning) 想要微调一个模型,一般包含以下关键步骤: 1.选择预训练模型:选取一个已经在大量数据上进 行过预训练的模型作为起点; 2.准备任务特定数据:收集与目标任务直接相关的 数据集,这些数据将用于微调模型; 3.微调训练:在任务特定数据上训练预训练的模型, 调整模型参数以适应特定任务; 4.评估:在验证集上评估模型性能,确保模型对新0 码力 | 32 页 | 13.09 MB | 1 年前3
普通人学AI指南Ollama Ollama 可以简单理解为客户端,实现和大模型的交互。ollama 软件 win 和 mac 都包括,如图 11 所示。 13 Figure 11: Ollama 下载 在这里已经为大家准备好,只需要在我的微信公众号郭震 AI,回复消息: ollama,就能下载到软件。 下载之后打开,直接点击 Next 以及 Install 安装 ollama,安装步骤非常简 单。 3.1.2 步骤0 码力 | 42 页 | 8.39 MB | 8 月前3
【周鸿祎清华演讲】DeepSeek给我们带来的创业机会-360周鸿祎-202502关键基础之一:知识库打造 知识库打造是DeepSeek更懂企业的基础 知识自动汇集,不流失 多模态数据处理和理解 非结构化文档处理和理解 搜索,辅助内部办公和外部客户服务 为业务大模型RAG做准备 内部知识管理 • 把企业内部的碎片化知识, 把专 家头脑中的经验转化为显性知识 管理起来, 如员工邮件、 文档文 件、 聊天记录、 工作记录等 工作流知识管理 1 外部情报分析 • 抓取外部情报,0 码力 | 76 页 | 5.02 MB | 6 月前3
DeepSeek从入门到精通(20250204)对初次输出结果不满意就放弃 ▪ 缺乏对AI输出的分析和反馈 应对策略: ▪ 采用增量方法:从基础提示语开始,逐步添加细节和要求。 ▪ 主动寻求反馈:要求AI对其输出进行自我评估,并提供改进建议。 ▪ 准备多轮对话:设计一系列后续问题,用于澄清和改进初始输出。 过度指令和模糊指令陷阱:当细节淹没重点或意图不明确 陷阱症状: ▪ 提示语异常冗长或过于简短 ▪ AI输出与期望严重不符 ▪ 频繁需要澄清或重新解释需求0 码力 | 104 页 | 5.37 MB | 8 月前3
清华大学 DeepSeek 从入门到精通对初次输出结果不满意就放弃 ▪ 缺乏对AI输出的分析和反馈 应对策略: ▪ 采用增量方法:从基础提示语开始,逐步添加细节和要求。 ▪ 主动寻求反馈:要求AI对其输出进行自我评估,并提供改进建议。 ▪ 准备多轮对话:设计一系列后续问题,用于澄清和改进初始输出。 过度指令和模糊指令陷阱:当细节淹没重点或意图不明确 陷阱症状: ▪ 提示语异常冗长或过于简短 ▪ AI输出与期望严重不符 ▪ 频繁需要澄清或重新解释需求0 码力 | 103 页 | 5.40 MB | 8 月前3
共 6 条
- 1













