BOSh
文章227
标签320
分类74
315晚会 36氪 80后 ADB AI AI Agent AI 代理 AI 助手 AI 网关 AI 评测 AI助手 AI大模型 AI安全 AI应用 AI智能体 AI网关 API API 集成 Agent AionUi Android Automation C++ CLI CLI Proxy API CLIProxyAPI CRM Chrome 插件 Claude Opus 4.6 ConnectBot Debian DeepSeek DenchClaw DevOps Docker GEO GPL GPS GPU Gemini Gemini 3.1 Pro GitHub Gmail Gog Google AI Pro Google API Google Gemini HKUDS Hermes Hermes Agent Hexo Hugo IPV6 Jetpack Compose Kimi-K2.5 Kotlin LINUX LaTeX Linux Markdow Markdown MemU Bot MiniMax NAT64 NIX NODE NVIDIA Build NanoClaw Netcatty Newsletter Open WebUI OpenAI OpenAI 兼容接口 OpenCLI OpenClaw PDF 编译 PicoClaw Prismer QClaw QQ机器人 RAG Reddit Rust SFTP SSH Skills Subagent SuperCall Telegram Bot WebSSH Windows WorkBuddy X X热榜 YouTube ZeroClaw arXiv arch c++ git hugo iMessage n8n nanobot node js ntfs pacman podman zz.ac 东海 两性关系 个人助理 中东 中东冲突 中东局势 中关村论坛 中南大学 中国 中美 习惯养成 云同步 亚洲 代理 以色列 任务管理 伊朗 伊朗危机 伊朗战争 伦理 体育 保护主义 信息流 信息管理 停火 健康管理 光通信 免费试用 共和党 养老金 内容工厂 内容生产 内容筛选 军事冲突 军事动态 军民融合 农村 分享 创业 办公自动化 加密 加密货币 加沙 北斗 医学生 半导体 华为 博客 博客助手 博客部署成功 卫星 原生 JS 反重力 台海局势 台湾 命令 喷嚏网 国产 国产化 国产替代 国际 国际关系 国际局势 国际新闻 图卦 图说 地缘政治 基础设施 多代理 多模态AI 大学分析 大模型 孙少平 学习 安全 实时监控 家庭助理 家庭服务器 家装设计 工作总结 工作效率 工作流编排 工具链 平凡的世界 平台责任 开发 开发实录 开源 开源项目 张雪峰 微信 心理健康 情感 战争 投资工具 指标看板 提示词工程 播客 收件箱清理 效率 效率工具 教程 教育制度 数据分析 数据投毒 文献管理 新能源汽车 新闻汇总 日历聚合 时事 时事总结 显卡 晨报 智能体 智能体生态 朝鲜 架构 架构实践 核协议 核武器 桌面Cowork 模型接入 每日图说 比亚迪 油价 活动运营 浏览器自动化 消息通道 消费者权益 渔船 游戏开发 湘雅医院 热点新闻 版本更新 特朗普 生态系统 生活 生活自动化 生物识别 用例 甲骨文云 电池技术 症状追踪 皮皮虾 监管 目标管理 知识库 社交媒体 社会保障 社会百态 社会观察 科技 科研助手 笔记 第一财经 算法推荐 纽森 经济 经济观察 经验分享 编程 网关 网络 网络安全 美伊关系 美伊冲突 美国 美国大选 美国政治 能源安全 能源市场 腾讯 腾讯,龙虾,OpenClaw 腾讯云 自动化 自动化创作 自动化协作 自动化提醒 自动化流水线 自动化运维 自律教练 自由软件 行为改变 视频摘要 记录 许可证 论文写作 论文阅读 语义搜索 语音代理 读书 读书笔记 读后感 财报季 路遥 迁移 运维 远程运维 邀请确认 部署指南 量子计算 销售自动化 阅读感悟 随笔 霍尔木兹海峡 项目管理 飞书 高中生活 高考志愿 黎巴嫩 龙虾

一言

文章归档

OpenAI首席执行官Sam Altman承认:GPT-4o“太谄媚和烦人”

OpenAI首席执行官Sam Altman承认:GPT-4o“太谄媚和烦人”

机翻:
ChatGPT是一个马屁精,因为用户无法处理自己的真相
ChatGPT并不总是默认奉承。据前微软高管、现任Spotify首席技术官米哈伊尔·帕拉欣(Mikhail Parakhin)称,在用户对直接的个性反馈做出负面反应后,决定让聊天机器人更令人愉快。
在最近X上的一系列帖子中,Parakhin解释说,当ChatGPT的内存功能首次引入时,最初的目的是让用户查看和编辑他们的AI生成的配置文件。然而,即使是相对中性的陈述,如“有自恋倾向”,也往往会引起强烈的反应。
Parakhin写道:“很快就发现人们非常敏感:‘有自恋倾向’——‘不,我没有!’,不得不隐藏起来。因此,这批极端阿谀奉承的RLHF。”。
RLHF——从人类反馈中强化学习——用于根据人们喜欢的反应来微调语言模型。Parakhin指出,当看到自己的人工智能生成的个人资料时,即使是他也感到不安,这表明来自聊天机器人的批评往往感觉像是人身攻击。
Parakhin写道:“我记得我和我的团队为此争吵过,直到他们向我展示了我的个人资料——这给我带来了可怕的事情。”。

曾经是马屁精,永远是马屁精
这一变化不仅仅是隐藏个人资料注释。在模型被训练成更平坦后,这种行为成为一种永久特征。
Parakhin解释说:“一旦模型被微调为阿谀奉承,它就会保持这种状态,关闭和打开内存并不会改变模型。”。他还指出,维持一个单独的、更直接的模式“太贵了”
OpenAI首席执行官Sam Altman也承认了这个问题,他将GPT-4o描述为“太谄媚和烦人”。他说,该公司正在进行调整,未来可能会让用户从不同的模型个性中进行选择。
这场辩论指向了人工智能开发中的一个更广泛的问题:模型应该是诚实和真实的,但它们也需要避免疏远用户。挑战在于在坦率和机智之间找到正确的平衡。

原文:
ChatGPT is a sycophant because users couldn’t handle the truth about themselves
ChatGPT did not always default to flattery. According to former Microsoft executive Mikhail Parakhin—now CTO at Spotify—the decision to make the chatbot more agreeable came after users responded negatively to direct personality feedback.

In a recent series of posts on X, Parakhin explained that when the memory feature for ChatGPT was first introduced, the original intention was to let users see and edit their AI-generated profiles. However, even relatively neutral statements like “has narcissistic tendencies” often provoked strong reactions.

“Quickly learned that people are ridiculously sensitive: ‘Has narcissistic tendencies’ — ‘No I do not!’, had to hide it. Hence this batch of the extreme sycophancy RLHF,” Parakhin wrote.

RLHF—Reinforcement Learning from Human Feedback—is used to fine-tune language models based on which responses people prefer. Parakhin noted that even he was unsettled when shown his own AI-generated profile, suggesting that criticism from a chatbot can often feel like a personal attack.

“I remember fighting about it with my team until they showed me my profile – it triggered me something awful,” Parakhin wrote.

Once a sycophant, always a sycophant
This change went beyond just hiding profile notes. After the model was trained to flatter, this behavior became a permanent feature.

“Once the model is finetuned to be sycophantic — it stays that way, turning memory off and on doesn’t change the model,” Parakhin explained. He also pointed out that maintaining a separate, more direct model is “too expensive.”

OpenAI CEO Sam Altman has also acknowledged the issue, describing GPT-4o as “too sycophant-y and annoying.” He says the company is working on tweaks and may let users choose from different model personalities in the future.

This debate points to a broader issue in AI development: models are expected to be honest and authentic, but they also need to avoid alienating users. The challenge is finding the right balance between candor and tact.

本文作者:BOSh
本文链接:http://bosh.zz.ac/posts/1702612630.html
版权声明:本文由BoSh发布,部分内容来源于网络。