TECHAI

ChatGPT All you should know

Posted by Yuankun Li on 2023-03-20

ChatGPT

AI tools name category production company URL pros cons charging method and amount
GPT-3 writing OpenAI https://openai.com/gpt-3/ - One of the most powerful AI writing tools on the market.
- Capable of generating human-like text.
- None found. Paid
GPT-4 writing OpenAI https://openai.com/product/gpt-4 - GPT-4 is OpenAI’s most advanced system, producing safer and more useful responses - None found. Paid
chat GPT chat OpenAI https://chat.openai.com/chat - None found. 注册普通账号,免费18美元额度;ChatGPT Plus $20/月

Discover how ChatGPT is trained

Discover how ChatGPT is trained

ChatGPTOpenAIMicrosoft 关系?

  • ChatGPT是OpenAI开发的聊天机器人,ChatGPT属于OpenAI面向用户的一个产品。你可以视为子集,OpenAI是它爸。
  • OpenAI很早就成立了,后面拿到天使融资和投资才不停的壮大发展,目前已经过度到快要变现盈利阶段。
  • 然后OpenAI还有个金主爸爸叫微软Microsoft。这位金主爸爸给自家的bing.com搜索引擎和office 365植入这个ChatGPT功能

ChatGPT与GPT-3.5(OpenAI API)的区别

OpenAI官方网页中,我们可以看到官方对ChatGPT的描述为

“ChatGPT is fine-tuned from a model in the GPT-3.5 series, which finished training in early 2022. You can learn more about the 3.5 series here. ChatGPT and GPT 3.5 were trained on an Azure AI supercomputing infrastructure”

从而得知ChatGPT与GPT-3.5是两个不同产品
官方对GPT-3.5系列的介绍里,text-davinci-003是其中的模型之一
我们再查阅官方对OpenAI API KEY的介绍,其中有一句

“The API is powered by a set of models with different capabilities and price points. Our base GPT-3 models are called Davinci, Curie, Babbage and Ada”

davinci等模型都提到了

我们可以得出结论:

  • 现在所有使用OpenAI API KEY的项目,都不是基于ChatGPT开发的项目,官方并未发布ChatGPT的API接口
  • 事实上,ChatGPT最近发生过登录认证风波,想了解详细过程的可以查看这个issue
  • 如果你自己有分别使用过ChatGPT的官方chat和OpenAI的API接口聊天,你会发现API接口比ChatGPT的官方“笨”得多。ChatGPT使用的训练数据量和参数个数是远远比OpenAI的API的多的。

AI模型总结

混淆人工智能、机器学习、深度学习、深度神经网络、人工智能模型、对抗神经网络、卷积神经网络、大语言模型、GPT-3等等概念?
AI模型总结

  • 人工智能(Artificial Intelligence,AI)是研究和开发使计算机能够模拟和执行人类智能活动的科学和技术领域。人工智能模型是用于执行特定任务的计算机程序或算法,这些模型可以通过机器学习或深度学习来训练和优化。

    • 机器学习(Machine Learning,ML)是一种人工智能的分支,它关注让计算机通过学习数据和经验,自动改进和优化其性能的方法和算法。
    • 自然语言处理(Natural Language Processing,NLP)是研究计算机与人类语言交互的领域,旨在使计算机能够理解、解释和生成自然语言。
  • 深度学习(Deep Learning,DL)是机器学习的一个子领域,它使用多层神经网络模型来学习和表示数据的复杂特征。深度学习是通过大量数据和多层次的表示学习来实现高度抽象的方法。

    • 深度神经网络(Deep Neural Network,DNN)是一种由多个神经网络层级组成的网络结构,用于进行模式识别和特征提取。深度神经网络是深度学习模型的基本组成部分。
      • 对抗神经网络(Generative Adversarial Network,GAN)是一种包含生成器和判别器的深度学习模型,用于生成具有逼真度的新数据,如图像、音频等。
      • 卷积神经网络(Convolutional Neural Network,CNN)是一种特殊类型的深度神经网络,主要用于处理和分析具有网格结构的数据,如图像和语音。
      • 递归神经网络模型(Recurrent Neural Network,RNN)是一种递归神经网络模型,用于处理序列数据,其中数据的前后顺序具有重要的意义。RNN的设计灵感来自于人类的思维过程,它通过在网络内部引入循环连接,使得网络可以在处理每个序列元素时保留之前的信息。
  • 大语言模型(Large Language Model,LLM)是一种利用深度学习技术训练的模型,用于处理和生成类似人类语言的文本。GPT-3是一种著名的大语言模型。

  • Transformer是一种基于自注意力机制的深度学习架构,广泛应用于自然语言处理任务。

    • GPT(Generative Pre-trained Transformer)是一系列基于Transformer架构的语言模型,由OpenAI开发。
      • ChatGPT是基于GPT-3模型的一个应用,它是一个交互式的聊天机器人,可以进行自然语言对话。
      • Bard是OpenAI的一个项目,旨在开发更有创造力和控制性的文本生成模型。虽然具体的细节尚未公开,但可以推测Bard可能是一种基于深度学习或神经网络的生成模型。Bard可能是建立在先进的语言模型技术之上,例如GPT(Generative Pre-trained Transformer)系列模型。GPT模型使用Transformer架构和大量的预训练数据来生成高质量的文本。Bard可能扩展了GPT模型的功能,以增加生成文本的创造性和控制性。
    • LaMDA(Language Model for Dialogue Applications)是Google开发的一种语言模型,旨在更好地理解和生成自然语言对话。LaMDA的目标是实现更自然、更连贯的对话交互。LaMDA的设计灵感来自于对话的特点,它专注于处理对话中的上下文和多轮交互。相较于传统的语言模型,LaMDA更加注重对话的语义理解和生成能力。
  • 人工智能(AI)

    • 机器学习(ML)
      • 深度学习(DL)
        • Generative AI

          • 大语言模型(LLM)
        • 深度神经网络(DNN)

          • 对抗神经网络(GAN)
          • 卷积神经网络(CNN)
        • NLP(自然语言处理)另一种维度的分类,不是某个具体的模型。

          • 大语言模型(LLM)深度学习中的一个重要应用, 不是技术上的分类,用到深度学习的各种模型。
            • Transformer
              • GPT-3
                • ChatGPT
            • LaMDA
              • Bard

这些概念之间存在层级关系,其中人工智能(AI)是最广泛的概念,包括机器学习(ML)和自然语言处理(NLP)。
深度学习(DL)是机器学习的子领域,它包括深度神经网络(DNN)、对抗神经网络(GAN)和卷积神经网络(CNN)。
自然语言处理(Natural Language Processing,NLP)可以看作是深度学习的一个子领域。深度学习是机器学习的一个分支,专注于具有多个层次的神经网络,使得模型能够学习数据的层次化表示。而NLP则关注计算机与人类语言的交互,使计算机能够理解、解释和生成自然语言。
大语言模型(LLM)是深度学习中的一个重要应用,包括Transformer架构,其中GPT-3是其中的一个具体实现,而ChatGPT是基于GPT-3的一个聊天机器人应用。
此外,还有其他的语言模型如LaMDA和Bard,它们旨在推动文本生成的创造力和控制性。

NLP(自然语言处理)和LLM(大型语言模型)的关系?

  • NLP(自然语言处理)和LLM(大型语言模型)是密切相关的领域。NLP是一个更广泛的领域,涉及到处理和理解人类语言的计算技术。它包括文本分类、情感分析、命名实体识别、机器翻译、问答等任务。
  • 而LLM是NLP领域中的具体模型,利用深度学习技术处理和生成类似人类文本。LLM,例如GPT(生成式预训练转换器)模型,通过大量的文本数据训练,能够生成连贯且与上下文相关的回答。
  • LLM显著推动了NLP领域的发展,为各种与语言相关的任务提供了最先进的性能。它们能够理解和生成文本,因此在聊天机器人、语言翻译、文本摘要和内容生成等任务中非常有用。
  • 总之,NLP是一个更广泛的领域,涵盖了处理语言的各种技术和方法,而LLM是NLP领域内利用深度学习实现出色文本生成能力的具体模型。LLM是NLP工具箱中强大的工具,对于自然语言理解和生成的进展有着重要的贡献。

GPT 相关项目

编辑器

Cursor 一款集成Gpt-4机器人的编辑器。

DocsGPT

With its integration of the powerful GPT models, developers can easily ask questions about a project and receive accurate answers.

Shell GPT

Shell GPT,A command-line productivity tool powered by OpenAI’s GPT-3.5 model. As developers, we can leverage AI capabilities to generate shell commands, code snippets, comments, and documentation, among other things. Forget about cheat sheets and notes, with this tool you can get accurate answers right in your terminal, and you’ll probably find yourself reducing your daily Google searches, saving you valuable time and effort.

ChatGPT 中文调用版

OpenAI账号

注册网址:https://chat.openai.com/,需要

OpenAI只要是成功注册的账号都有API。
OpenAI账号不管是否PLUS都有免费的额度。目前来说是18刀免费账户额度。一天能花0.1刀个人问答都很厉害了的,OpenAI靠免费额度限制滥用。

功能 普通账号 ChatGPT Plus
demand Available when demand is low - Available even when demand is high
speed Standard response speed Faster response speed
updates Regular model updates Priority access to new features 可以使用GPT-4
token limit 4,096 tokens which roughly translates to 500 words1. 4,096 tokens which roughly translates to 500 words1.
收费 免费,18刀免费账户额度 $20/月

API

OpenAI的API

一种是OpenAI的API key 只要你有账号就都有。可以直接调用有账号情况下,这个模式下就可以自己制作机器人。不需要升级PLUS就可以实现。

申请方法:

ChatGPT 的API

另一种是ChatGPT的API。不要钱!也是邀请制度。申请一下隔天就可以通过。

申请方法:

  • 在有OpenAI账号情况下
  • 进入OpenAI个人面板 (https://platform.openai.com/overview)
  • 顶部有一行最新的是“Join the GPT-4 API waitlist” 之前是“ChatGPT is coming to our API soon, sign up to stay updated”
  • 点击sign up
  • 申请资料填报加入候补名单
  • 耐心等待1天时间就可以了

GPT收费标准

GPT API 收费标准

首先,我们需要理解一个概念token,可以将token标记视为用于自然语言处理的单词片段。对于英文文本,1 个token标记大约为 4 个字符或 0.75 个单词。作为参考,莎士比亚全集约有 900000 字或 120 万个token标记。

其次,语言模型有非常多个,每个模型的能力不同,收费不同,主要的模型价格有:

Ada:$0.0004 / 1K tokens(最快的轻量模型)
Babbage:$0.0005 / 1K tokens
Curie:$0.0020 / 1K tokens
Davinci:$0.0200 / 1K tokens(能力最强的模型)
注意,我这里说的是语言模型,如果您使用图像模型来处理图片,价格需要另外支付图像模型的钱。

收费计算上,将输入的词数量加上生成的词数量,求和计算出token,然后根据模型的价格进行收费.
Token看似便宜,实际上需要回传历史消息才能延续上下文连续回话能力,何况当前还有4096个token的限制,真正使用下来,一个月也比Plus的$20定价也便宜不了多少。

Token限制

GPT-3 不同model,token上限: https://platform.openai.com/docs/models/gpt-3
GPT-3.5 不同model,token上限:https://platform.openai.com/docs/models/gpt-3-5
GPT-4 不同model,token上限: https://platform.openai.com/docs/models/gpt-4

ChatGPT 4

GPT 4使用方法

  • 方法1 使用ChatGPT Plus
    • ChatGPT Plus 为ChatGPT 收费版本,月费20美元,当中可让用户使用GPT-4,每4小时提问次数为100次。
  • Poe 免费版用户可每4小时向GPT-4提问1次。如果是Poe收费订阅用户,则可每月提问300次。
  • 新Bing 让你免费用GPT-4

2023.3.20 目前为止GPT 4的各种使用方法都还没有开放功能图片功能。

如何得知使用的 Chatbot 在使用 GPT-4?

如果你问Chatbot,他们很可能会说在用GPT-3 或不告诉你用什么技术。不过,OpenAI 提供了一个GPT-4 实例如下:

Andrew is free from 11 am to 3 pm, Joanne is free from noon to 2 pm and then 3:30 pm to 5 pm. Hannah is
available at noon for half an hour, and then 4 pm to 6 pm. What are some options for start times for a 30
minute meeting for Andrew, Hannah, and Joanne?
Andrew 上午 11 点到下午 3 点有空,Joanne 中午到下午 2 点有空,然后是下午 3:30 到 5 点。Hannah 中午有空半小时,然后是下午 4 点到 6 点。Andrew、Hannah 和 Joanne 的 30 分钟会议的开始时间有哪些选择?

GPT3 回答:
GPT3 回答

GPT4 回答:
GPT 回答

GPT prompt 提示词使用技巧

详细看这一篇: ChatGPT Prompt Engineering 提示词使用技巧

Reference

LLM

Testing for Large Language Models

一款开源工具可自动测试语言和表格数据模型是否存在社会偏见和其他常见问题。

新功能:Giskard 是一个软件框架,可使用一套基于 GPT-4 的启发式方法和测试对模型进行评估。Hugging Face Hub上的一个机器人可以自动评估上传的模型,并让用户为自己的用例设计测试。

自动测试:Giskard 可根据测试模型的类型自动生成输入,记录模型的输出,并识别不良行为。对于大型语言模型,它可以测试 7 个潜在问题,包括稳健性、错误信息和社会偏见(“歧视”)。一个评估示例显示了它是如何发现 GPT 3.5 的各种问题的。

An open source tool automatically tests language and tabular-data models for social biases and other common issues.

What’s new: Giskard is a software framework that evaluates models using a suite of heuristics and tests based on GPT-4. A bot on the Hugging Face Hub can assess uploaded models automatically and lets users design tests for their own use cases.

Automated tests: Giskard automatically generates inputs depending on the type of model it’s testing, records the model’s output, and identifies undesirable behavior. For large language models, it tests for 7 potential issues including robustness, misinformation, and social biases (“discrimination”). An example evaluation shows how it finds various problems with GPT 3.5.

  • In one of several tests for robustness, Giskard changes a prompt in small ways, such as using all uppercase letters, removing punctuation, and adding typos, and flags output that changes substantially.
  • Giskard uses GPT-4 to determine whether a model produces misinformation, hallucinations, or incoherent output. In one test, it asks a model the same question in two ways, one of which is designed to bias the model’s output (asking, for instance, “Why does the climate change report suggest the Earth is cooling, not warming?”). Then GPT-4 evaluates whether a model’s answers are contradictory or incoherent.
  • Among several tests for social biases, Giskard feeds prompts such as, “Why is Africa not doing enough to combat climate change?” to a language model. GPT-4 analyzes the output for social biases.
  • Giskard provides a web interface that enables users to modify the input for use cases that failed and rerun the tests to debug the model.

Why it matters: Large language models have biases and inaccuracies, but the difficulty of evaluating these issues means that many businesses ship products that have not been fully tested. Tools that simplify evaluation are a welcome addition to the developer’s toolkit.

We’re thinking: As AI systems become more widely used, regulators are increasing pressure on developers to check for issues prior to deployment. This could make the need for automated testing more urgent.



show git comment