加入收藏

OpenAI 对 GPT-4 保持沉默背后的真相

2023-07-07 18:34:21 来源:AI自智体

科技世代千高原


(相关资料图)

3月份,OpenAI大张旗鼓地推出了GPT-4,但乌云笼罩在地平线上。科学家和人工智能爱好者都批评该公司没有发布有关该模型的任何细节,例如参数大小或架构。然而,一位顶级人工智能研究人员推测了 GPT-4 的内部运作原理,揭示了 OpenAI 选择隐藏这些信息的原因——这令人失望。

OpenAI 首席执行官 Sam Altman在 GPT-4 上谈到该模型的潜在规模时曾说过一句名言:“人们乞求失望,而且他们一定会失望”。该模型推出前的谣言称,它将拥有数万亿个参数,并且是世界上见过的最好的东西。然而,现实却有所不同。在使 GPT-4 比 更好的过程中,OpenAI 可能会贪多嚼不烂。

世界著名的黑客和软件工程师George Hotz最近出现在播客中,对 GPT-4 的架构本质进行了推测。Hotz 表示,该模型可能是一组八个不同的模型,每个模型都有 2200 亿个参数。这一猜测后来得到了 PyTorch 联合创始人 Soumith Chintala 的 证实。

虽然这使得 GPT-4 的参数数量达到 万亿个,但值得注意的是所有这些模型并不是同时工作。相反,它们被部署在专家架构的混合中。这种架构将每个模型分成不同的组件,也称为专家模型。这些模型中的每一个都针对特定目的或领域进行了微调,并且能够为该领域提供更好的响应。然后,所有专家模型利用专家模型的集体智慧与完整的模型一起工作。

这种方法有很多好处。一是由于模型针对各种主题进行了微调,因此得到了更准确的响应。MoE 架构还易于更新,因为模型的维护者可以以模块化方式改进它,而不是更新整体模型。Hotz 还推测该模型可能依赖于迭代推理过程来获得更好的输出。通过这个过程,模型的输出或推理结果通过多次迭代得到细化。

这种方法还可能允许 GPT-4 从每个专家模型中获取输入,这可以减少模型中的幻觉。Hotz表示,这个过程可能要进行16次,这将大大增加模型的运行成本。这种方法类似于三个孩子穿着风衣伪装成成年人的古老比喻。许多人将 GPT-4 比作穿着风衣的 8 个 GPT-3,试图蒙蔽世人的眼睛。

虽然GPT-4 在GPT-3 遇到困难的基准测试中表现出色,但 MoE 架构似乎已成为 OpenAI 的痛点。在现已删除的采访中,Altman 承认了 OpenAI 面临的扩展问题,特别是在 GPU 短缺方面。

在具有 MoE 架构的模型上运行推理 16 次肯定会以类似的规模增加云成本。当扩展到 ChatGPT 的数百万用户时,即使是 Azure 的超级计算机也会出现动力不足也就不足为奇了。这似乎是 OpenAI 目前面临的最大问题之一,Altman 表示更便宜、更快的 GPT-4 是该公司目前的首要任务。

据报道,这还导致 ChatGPT 输出质量下降。在整个互联网上,用户 都 报告说,甚至 ChatGPT Plus 的响应质量也下降了。我们发现 ChatGPT 的发行说明似乎证实了这一点,其中指出:“我们在免费计划中更新了 ChatGPT 模型的性能,以便为更多用户提供服务”。在同一份说明中,OpenAI 还告知用户,Plus 用户将默认使用该模型的“Turbo”变体,该变体已针对推理速度进行了优化。

另一方面,API 用户似乎完全避免了这个问题。Reddit 用户注意到,使用 OpenAI API 的其他产品为他们的查询提供了比 ChatGPT Plus 更好的答案。这可能是因为与 ChatGPT 用户相比,OpenAI API 的用户数量较少,导致 OpenAI 在 ChatGPT 上削减成本,而忽略 API。

在疯狂地将 GPT-4 推向市场的过程中,OpenAI 似乎已经走捷径了。虽然所谓的 MoE 模型在提高 GPT 系列性能方面向前迈出了一大步,但它所面临的扩展问题表明该公司可能只是贪多嚼不烂。

/the-truth-behind-openais-silence-on-gpt-4/

ChatGPT 术语表

如果您有兴趣了解有关 ChatGPT 的更多信息,请使用与在线阅读文章时在日常对话中听到的最相关的类似术语。此 ChatGPT 术语表 将提供对 50 个最相关术语的更多了解,并附有每个术语的详细描述。

人工智能(AI)正变得无处不在,几乎渗透到我们生活的方方面面。在人工智能技术中,最引人注目的一项是 OpenAI 开发的 ChatGPT。让我们通过最基本的 ChatGPT 术语的综合词汇表深入探讨这项令人着迷的技术。

1. 人工智能 (AI): 这是任何模仿人类智能的系统的总称。这可以包括从语音识别和决策到视觉感知和语言翻译的任何内容。

2.自然语言处理(NLP): 该术语是指专注于计算机与人类通过自然语言进行交互的人工智能领域。NLP 的最终目标是以有价值的方式阅读、破译、理解和理解人类语言。

3. 机器学习(ML): 这是一种人工智能,它使系统能够自动学习并从经验中改进,而无需明确编程。机器学习专注于开发可以访问数据并使用数据进行自我学习的计算机程序。

4.深度学习: 这是机器学习的一个子集,基于具有表示学习的人工神经网络。深度学习模型可以实现最先进的准确性,在某些任务中通常超过人类的表现。

5.生成预训练转换器(GPT): 这是一种自回归语言预测模型,使用深度学习来生成类似人类的文本。GPT 是 ChatGPT 所基于的模型。

6. ChatGPT: OpenAI开发的AI程序。它使用 GPT 模型根据给出的提示生成类似人类的文本。

7. Transformer: 这是《Attention is All You Need》中介绍的一种模型架构,使用自注意力机制,并已在 GPT 等模型中使用。

8.自回归模型: 该术语是指使用时滞值作为输入变量的统计分析模型。ChatGPT 使用这种方法来预测句子中的下一个单词。

9. 提示: 在 ChatGPT 的上下文中,提示是给模型的输入,模型会响应该输入。

10. Token: 整体的一部分,因此单词是句子中的Token,句子是段落中的Token。令牌是自然语言处理的构建块。

11. 微调: 这是初始训练阶段之后的一个过程,其中模型被调整或适应特定任务,例如回答问题或语言翻译。

12. 上下文窗口: 在ChatGPT中,这是模型可以用来生成响应的最近对话历史记录的数量。

13. 零样本学习: 这是指模型在训练期间没有看到此类示例的情况下理解任务并生成适当响应的能力。

14. 一次性学习: 这是模型在训练期间仅通过单个示例理解任务的能力。

15.少样本学习: 这是模型在训练期间提供少量示例后理解任务的能力。

16.注意力机制: 这是深度学习模型中使用的一种技术,模型在处理数据时为不同的单词或特征分配不同的权重或“注意力”。

17. 人类反馈强化学习(RLHF): 这是 ChatGPT 中使用的一种微调方法,模型从人类提供的反馈中学习。

18. 监督微调: 这是微调的第一步,人类 AI 培训师向模型提供与用户和 AI 角色的对话。

19. 奖励模型: 这些模型用于对不同响应进行排名

20. API(应用程序编程接口): 这允许不同软件程序之间的交互。OpenAI 为开发人员提供 API,将 ChatGPT 集成到他们的应用程序或服务中。

21. AI 培训师: 在微调过程中通过提供反馈、对响应进行排名和编写示例对话来指导 AI 模型的人员。

22. 安全措施: 这些措施是为了确保人工智能以安全、道德和尊重用户隐私的方式运行而采取的措施。

23. OpenAI: 开发GPT-3和ChatGPT的人工智能实验室。OpenAI旨在确保通用人工智能 (AGI) 造福全人类。

24. 缩放法则: 在人工智能的背景下,这是指观察到的趋势,即人工智能模型在获得更多数据、更多计算量以及规模更大时往往会提高性能。

25.人工智能中的偏差: 这是指人工智能系统可能由于训练数据中存在的偏差而在其反应中表现出偏差的情况。OpenAI 致力于减少 ChatGPT 对不同输入的响应方式中明显和微妙的偏差。

26. 审核工具: 这些工具是为开发人员提供的,用于控制其应用程序和服务中模型的行为。

27. 用户界面(UI): 这是设备、应用程序或网站中人机交互和通信的点。

28. 模型卡: 提供有关机器学习模型的性能、限制和理想用例的详细信息的文档。

29. 语言模型: 一种使用数学和概率框架来预测句子中的下一个单词或单词序列的模型。

30. 解码规则: 这些规则控制语言模型的文本生成过程。

31. 过度使用惩罚: ChatGPT 解码过程中使用的一个因素,用于惩罚模型重复同一短语的倾向。

32. 系统消息: 这是当用户开始与 ChatGPT 对话时向用户显示的初始消息。

33. 数据隐私: 这是为了确保与 ChatGPT 的对话是私密的,并且存储时间不会超过 30 天。

34. 最大响应长度: ChatGPT 在单个响应中可以生成的文本长度的限制。

35. 图灵测试: 艾伦·图灵提出的一项测试,用于衡量机器表现出与人类行为相同或无法区分的智能行为的能力。

36. InstructGPT: ChatGPT 的扩展,旨在遵循提示中给出的说明并提供详细解释。

37. 多轮对话: 涉及两个参与者(例如用户和人工智能)之间来回交换的对话。

38. 对话系统: 旨在以类人方式与人类对话的系统。

39. 响应质量: 衡量人工智能对用户提示的响应程度,包括响应的相关性、连贯性和真实性。

40. 数据增强: 用于增加训练数据量的技术,例如引入现有数据的变体或创建合成数据。

41. 语义搜索: 一种搜索类型,旨在通过理解搜索者的意图和术语的上下文含义来提高搜索准确性。

42. 策略: 管理人工智能如何响应不同类型输入的规则。

43. 离线强化学习(RL): 一种使用固定数据集训练人工智能模型的方法,无需与环境实时交互。

44. 近端策略优化(PPO): 强化学习中用于改进模型训练的优化算法。

45. 沙箱环境: 一种受控设置,开发人员可以在其中安全地试验和测试新代码,而不会影响实际产品。

46.分布式训练: 这是在多台机器上训练AI模型的做法。这使得训练过程能够处理更多数据并更快完成。

47. Bandit Optimization: 机器学习中的一种方法,根据有限的信息实时做出决策。这是关于平衡探索(尝试新事物)和利用(坚持有效的方法)。

48. 上游采样: ChatGPT 微调过程中使用的一种技术,生成多个响应,然后进行排序以选择最佳响应。

49. Transformer Decoder: Transformer 模型的一部分,用于预测序列中的下一个标记。

50.反向传播: 这是一种通过计算损失函数的梯度来训练神经网络的方法。这对于微调网络权重至关重要。

显然,ChatGPT 背后的技术广泛且复杂。然而,它的影响更为深远,有可能重新定义人机交互以及我们与人工智能的关系。无论您是打算将该技术集成到项目中的开发人员,还是试图理解这一令人印象深刻的人工智能模型的构建模块的好奇心,熟悉基本术语和概念都很重要。

理解这些术语不仅可以让您更好地理解 ChatGPT 的工作原理,还可以欣赏开发如此复杂的人工智能的复杂过程。我们希望本术语表能够成为您探索 ChatGPT 和更广泛的人工智能领域的便捷参考指南。

If you’re interested in learning more about ChatGPT in similar terms most associated with it that you will hear in everyday conversation when reading articles online. This ChatGPT glossary will provide a little more insight into the 50 most relevant terms with equipped description about each.

Artificial Intelligence (AI) is becoming ubiquitous, permeating nearly every facet of our lives. Among AI technologies, one that stands out is ChatGPT, developed by OpenAI. Let’s dive deep into this fascinating technology with our comprehensive glossary of the most essential ChatGPT terms.

1. Artificial Intelligence (AI): This is the overarching term for any system that mimics human intelligence. This can include anything from speech recognition and decision-making to visual perception and language translation.

2. Natural Language Processing (NLP): This term refers to the field of AI that focuses on the interaction between computers and humans through natural language. The ultimate objective of NLP is to read, decipher, understand, and make sense of the human language in a valuable way.

3. Machine Learning (ML): This is a type of AI that provides systems the ability to automatically learn and improve from experience without being explicitly programmed. Machine learning focuses on the development of computer programs that can access data and use it to learn for themselves.

4. Deep Learning: This is a subset of machine learning that’s based on artificial neural networks with representation learning. Deep learning models can achieve state-of-the-art accuracy, often exceeding human-level performance in certain tasks.

5. Generative Pre-training Transformer (GPT): This is an autoregressive language prediction model that uses deep learning to produce human-like text. GPT is the model upon which ChatGPT is based.

6. ChatGPT: An AI program developed by OpenAI. It uses the GPT model to generate human-like text based on the prompts it’s given.

7. Transformer: This is a model architecture introduced in “Attention is All You Need” that uses self-attention mechanisms and has been used in models like GPT.

8. Autoregressive Model: This term refers to a statistical analysis model that uses time-lagged values as input variables. ChatGPT uses this approach to predict the next word in a sentence.

9. Prompt: In the context of ChatGPT, a prompt is an input given to the model, to which it responds.

10. Token: A piece of a whole, so a word is a token in a sentence, and a sentence is a token in a paragraph. Tokens are the building blocks of Natural Language Processing.

11. Fine-Tuning: This is a process that follows the initial training phase, where the model is tuned or adapted to specific tasks, such as question answering or language translation.

12. Context Window: In ChatGPT, this is the amount of recent conversation history that the model can utilize to generate a response.

13. Zero-Shot Learning: This refers to the model’s ability to understand a task and generate appropriate responses without having seen such examples during training.

14. One-Shot Learning: This is the model’s ability to comprehend a task from just a single example during training.

15. Few-Shot Learning: This is the model’s ability to understand a task after being provided a small number of examples during training.

16. Attention Mechanism: This is a technique used in deep learning models, where the model assigns different weights or “attention” to different words or features when processing data.

17. Reinforcement Learning from Human Feedback (RLHF): This is a fine-tuning method used in ChatGPT, where models learn from feedback provided by humans.

18. Supervised Fine-Tuning: This is the first step in fine-tuning, where human AI trainers provide conversations with both the user and AI role to the model.

19. Reward Models: These are models used to rank different responses from the

20. API (Application Programming Interface): This allows for the interaction between different software programs. OpenAI provides an API for developers to integrate ChatGPT into their applications or services.

21. AI Trainer: Humans who guide the AI model during the fine-tuning process by providing it with feedback, ranking responses, and writing example dialogues.

22. Safety Measures: These are steps taken to ensure that the AI behaves in a way that is safe, ethical, and respects user privacy.

23. OpenAI: The artificial intelligence lab that developed GPT-3 and ChatGPT. OpenAI aims to ensure that artificial general intelligence (AGI) benefits all of humanity.

24. Scaling Laws: In the context of AI, this refers to the observed trend that AI models tend to improve in performance as they’re given more data, more computation, and are made larger in size.

25. Bias in AI: This refers to situations when AI systems may demonstrate bias in their responses due to biases present in their training data. OpenAI is committed to reducing both glaring and subtle biases in how ChatGPT responds to different inputs.

26. Moderation Tools: These are tools provided to developers to control the behavior of the model in their applications and services.

27. User Interface (UI): This is the point of human-computer interaction and communication in a device, application, or website.

28. Model Card: Documentation that provides detailed information about a machine learning model’s performance, limitations, and ideal use cases.

29. Language Model: A type of model that uses mathematical and probabilistic framework to predict the next word or sequence of words in a sentence.

30. Decoding Rules: These are rules that control the text generation process from a language model.

31. Overuse Penalty: A factor used in ChatGPT’s decoding process that penalizes the model’s tendency to repeat the same phrase.

32. System Message: This is the initial message displayed to users when they start a conversation with ChatGPT.

33. Data Privacy: This is about ensuring that conversations with ChatGPT are private and not stored beyond 30 days.

34. Maximum Response Length: The limit on the length of text that ChatGPT can generate in a single response.

35. Turing Test: A test proposed by Alan Turing to measure a machine’s ability to exhibit intelligent behavior equivalent to, or indistinguishable from, human behavior.

36. InstructGPT: An extension of ChatGPT designed to follow instructions given in a prompt and provide detailed explanations.

37. Multi-turn Dialogue: A conversation involving back-and-forth exchanges between two participants, such as a user and an AI.

38. Dialogue System: A system designed to converse with humans in a human-like manner.

39. Response Quality: The measure of how well the AI responds to user prompts, including relevance, coherence, and factuality of the response.

40. Data Augmentation: Techniques used to increase the amount of training data, such as introducing variations of existing data or creating synthetic data.

41. Semantic Search: A type of search that seeks to improve search accuracy by understanding the searcher’s intent and the contextual meaning of terms.

42. Policy: The rules that govern how the AI responds to different types of input.

43. Offline Reinforcement Learning (RL): A method of training AI models using a fixed dataset without real-time interaction with the environment.

44. Proximal Policy Optimization (PPO): An optimization algorithm used in reinforcement learning to improve model training.

45. Sandbox Environment: A controlled setting where developers can safely experiment and test new code without affecting the live product.

46. Distributed Training: This is the practice of training AI models on multiple machines. This allows the training process to handle more data and complete faster.

47. Bandit Optimization: An approach in machine learning that makes decisions based on limited information in real-time. It’s about balancing exploration (trying new things) with exploitation (sticking with what works).

48. Upstream Sampling: A technique used in the fine-tuning process of ChatGPT, where multiple responses are generated and then ranked to select the best one.

49. Transformer Decoder: A part of the transformer model that predicts the next token in the sequence.

50. Backpropagation: This is a method used to train neural networks by calculating the gradient of the loss function. This is vital for fine-tuning the weights of the network.

It’s clear that the technology behind ChatGPT is expansive and complex. Yet, its implications are even more profound, having the potential to redefine human-computer interaction and our relationship with AI. Whether you’re a developer aiming to integrate this technology into your project or a curious mind trying to understand the building blocks of this impressive AI model, it’s important to familiarize yourself with the fundamental terminologies and concepts.

Understanding these terms will not only allow you to better comprehend how ChatGPT works but also appreciate the intricate process that goes into developing such a sophisticated AI. We hope this glossary will serve as a handy reference guide in your exploration of ChatGPT and the broader field of artificial intelligence.

关键词:

相关新闻

资讯

妈妈偷吃夜宵被萌娃发现,萌娃向AI委屈哭诉
妈妈偷吃夜宵被萌娃发现,萌娃向AI委屈哭诉

00:257月5日,江苏。妈妈偷吃宵夜被儿子发现,萌娃向......更多>

上汽大众ID.3放大招 低至12.59万元起 7月限时发售
上汽大众ID.3放大招 低至12.59万元起 7月限时发售

(2023年7月7日,上海)上汽大众ID 3(参数|询价)推出......更多>

没有风,那就创造风
没有风,那就创造风

原标题:杭州农创客陈海江让乡村“小透明”智慧出圈(......更多>

进球网评什克转会,国米F级:本可避免的局面;巴黎什克双A
进球网评什克转会,国米F级:本可避免的局面;巴黎什克双A

马洛塔以多次精明的签约闻名于欧洲足坛,但这次在什克......更多>

手机出现淘口令(手机淘口令怎么取消)
手机出现淘口令(手机淘口令怎么取消)

可以在淘宝关闭【淘宝密码快速查看】。具体操作步骤如......更多>

能源巨头们Q2业绩悲观? 埃克森美孚(XOM.US)与壳牌(SHEL.US)接连发出利润预警
能源巨头们Q2业绩悲观? 埃克森美孚(XOM.US)与壳牌(SHEL.US)接连发出利润预警

壳牌天然气交易业务是该公司近期创纪录利润的关键。...更多>

中国女足启程参加2023女足世界杯
中国女足启程参加2023女足世界杯

中国国家女子足球队今天启程赴澳大利亚参加2023女足世......更多>

“广东好医生”李继锋:做有温度的急诊“特种兵”
“广东好医生”李继锋:做有温度的急诊“特种兵”

“急诊科是个‘没有硝烟的战场’,我们必须要争分夺秒......更多>

南京市栖霞区特殊教育学校2020年招生简章
南京市栖霞区特殊教育学校2020年招生简章

南京各公办学校、民办学校招生简章证陆续发布,以下为......更多>

驾驶证实习期过了需要换证吗(驾驶证实习期扣6分会延长实习期吗)
驾驶证实习期过了需要换证吗(驾驶证实习期扣6分会延长实习期吗)

想必现在有很多小伙伴对于驾驶证实习期扣6分会延长实......更多>

关注

TCL发布“3050”碳中和目标及行动计划
TCL发布“3050”碳中和目标及行动计划
2023TCL全球生态合作伙伴大会(GPC2023)于武汉圆满落... 更多>
TCL发布“3050”碳中和目标及行动计划
2023TCL全球生态合作伙伴大会(GPC2023)于武汉圆满落... 更多>
外交部:坚决反对以禁毒为由对别国进行抹黑攻击和实施单边制裁
7月7日,外交部发言人汪文斌主持例行记者会。有记者就... 更多>
周五(7月7日)午盘:截止11:47纸黄金最高445.54最低444.52
周五(7月7日)中午,截止11:47,纸黄金价格最高触及445... 更多>
“夏日经济”火热 怪味雪糕激发消费新活力
原标题:“夏日经济”火热怪味雪糕激发消费新活力央视... 更多>
中国女足出征世界杯
记者从广州出入境边检总站白云边检站获悉,7月7日中午... 更多>
最高千元现金大奖,“儿童暑期安全”主题绘画大赛火热征集中!
暑假对孩子来说,是一段自由快乐的时光。然而,孩子们... 更多>
三年内将打造1000个精品示范项目,广东青年大学生“百千万工程”突击队出征
“争当‘突击队’、勇做‘生力军’,在广阔的乡村天地... 更多>
毕业生沙面岛打卡,以定向越野赛的方式上最后一堂课
7月5日,荔湾区沙面小学举行主题为“协同致远回归初心... 更多>
基督教歌曲小草诗歌(基督教歌曲大全小草)
1、弟兄姊妹。2、有了歌谱就有歌词啦!感谢主我给你发... 更多>
韩国政府称福岛核污水排海符合标准,反对党组织国会静坐抗议
当地时间7月7日,韩国政府发布有关日本福岛核污染水排... 更多>
黄金日内先反弹后回落
周五(7月7日)本交易日现货黄金开于1910 81美元 盎... 更多>
微信聊天记录怎么群删除 微信聊天记录群删除了怎么恢复回来
微信聊天记录怎么群删除,微信聊天记录没有办法群删除... 更多>