从2023年农历春节开工到现在,身边每天都充斥着对GPT、LLM领域大量的媒体剖析、行研报告、产品demo、社群活动。
热度要比过去元宇宙、区块链这些技能观点更加空前,可见他对底层技能的变革是如此的歇斯底里。

作为一枚数据产品经理,苦研数周,输出倒逼,大略总结了一些自己的学习心得。

序言用大口语让非技能职员理解这一技能的关键点,如想深度探索,可基于此搜索学习。
让互联网行业产品、运营等职员在事情中想要运用这一技能时有基本的框架思维。
作者非AI技能出身,有表述不准的地方,欢迎示正。

一、ChatGPT与GPT通识

ChatGPT是一个谈天运用。
一个输入框,输入你想问他的任何问题,他会给你一个答案,并且这个答案看起来是经由思考、讲究语法并且精确的。
他理解你的措辞,并能用你的措辞给你答案。

GPT大年夜措辞模型入门版面向互联网从业人员的AI通识与小我思虑

而这背后,便是GPT这个大模型在发挥浸染(Generative Pre-trained Transformer),翻译为“基于Transformer的天生式预演习模型”(引号里的中文值得逐字理解),普通点讲,这个模型的目的便是理解你输入的笔墨,然后打算答案,然后用你能懂的措辞进行呈现。

至于什么是Transformer、它为什么可以做到,这背后的技能点,我们下文展开。

对付行业小白,我们先科普几个这个行业关键词:

NLP:Natural Language Processing,自然措辞处理。
AGI:General Artificial Intelligence,通用人工智能。
LLM:Large Language Modle,大措辞模型。
AIGC:AI-generated content,互联网人该当都听过UGC、PGC,没错这个便是AIGC,AI天生内容。

连起来造句便是:要想让AI达到通用人工智能(AGI)的程度,自然措辞(NLP)领域的大措辞模型(LLM)能力是非常主要的,大措辞模型(LLM)领域有一个主要的运用便是AIGC。

二、GPT大模型背后的关键技能点

如果你想要研究清楚GPT背后的技能点以及发展脉络,可以先从以下几个观点入手。

1. Transformer

你可以理解为他是一个特色提取器,中文语义:转换器,他的目的便是把你给他的文本数据进行理解学习,形成他认为的人类语法。
有资料解释,光GPT3就用了45TB的文本数据,涵盖中文、英文等多国措辞,模型天生了超1.7万亿的参数。
就像一个一两岁的孩子,没背单词、没背语法、没学拼音也会说话一样。
这中间的实现便是这个模型在起浸染。
以是也堪称暴力美学。

用技能术语说,Transformer的核心是自把稳力机制(self-attention),它可以让模型在处理序列数据时,将不同位置的信息加权组合起来,从而更好地理解输入序列的构造和含义。
这个中的核心手段是编码和解码,即Encoder和Decoder。

Encoder把输入文本编码成一系列向量,Decoder则将这些向量逐一解码成输出文本。
在每一个Encoder和Decoder中,都有多个自把稳力层和前馈神经网络层组成。
这些层通过不断通报信息和调度参数,终极将输入转化为一个意义准确的输出。

2. MLM(Masked Language Modeling)

MLM(掩码措辞模型)是 GPT 预演习中的一个关键技能点,其目的是通过对输入序列中的部分单词进行遮盖,使模型在预测下一个单词时能够学习到高下文的信息。
大略但很奥妙。

在MLM中,模型会在输入的文本序列中随机选择一些单词,并将其更换为分外的MASK标记。
模型的任务是预测这些MASK标记所代表的单词是什么。
由于模型只能不雅观察到MASK标记周围的文本,因此它须要对高下文进行建模,以便精确地预测MASK标记所代表的单词。
Transformer、MLM等等这些架构、算法和模型设计让GPT问世,而Prompt和Fine-tune可以让我们能更好的利用他。

3. Prompt

中文语义:提问、提示语。
在与ChatGPT对话的时候,我们的输入即为prompt,想要让GPT更好的理解我们的意图,那prompt的精度就决定了这个大模型能否高效理解我们的意图。

特殊是在AIGC领域,只要你能想到,他就可以给你反馈。
如果把GPT看做一个知识的海洋、一个可以持续再生的金库,人类想要攫取,那Prompt会变得非常非常非常主要,它便是那个金钥匙。

4. Fine-tune

中文语义:微调。
企业在运用AI能力时,GPT可以定义为一个理解自然措辞的初始模型,为了更好地运用在业务场景中,可以在GPT的根本上进行微调,理解为一个有监督学习的过程,喂给他我们的业务数据或领域数据集,让他能读懂我们的业务数据并按需输出。

三、大措辞模型对软件产品的改变1. 用户需求被直不雅观暴露

目前的软件产品,用户的真实需求紧张是通过在软件产品内的行为数据进行创造和理解,如监控用户反复查看某个商品、用户搜索了某个商品、用户将什么商品添加到了购物车,基于此进行剖析、预测,根据用户行为反馈再进行调优。

当有了自然措辞处理的能力,用户会直接暴露自己的需求,如“我须要购买从北京到三亚的来回机票,旅途5天,希望有一半韶光住民宿,机票和住宿一共7000元预算,请给我供应一个方案”。

这种大略粗暴的交互,会迭代目前“业务与行为数据采集、数据聚合与处理、用户画像建模、人/物标签打算、推举算法、反馈调优”的整套数据工程。
当下自然措辞所暴露出来的需求会在数据集中占更大的权重。

2. 新的人机交互

ChatGPT、Midjourney+Discord、文心一言等现在都是通过谈天框模式供应做事。
这确实也是人与机器通过自然措辞沟通最空想的办法。
但chat模式不是当古人机交互的终极形态。

人与机器交互,想要达成期望结果,对话框、对话框+命令行、对话框+插件并不是当古人机交互的终极形态。

以是chat不是结果,但,已成必须。

比如我们的日常学习某一软件,特殊PS、数据剖析工具等,学习门槛很高,这是由于软件设计是自下而上的设计,人机交互的连接点是鼠标(或约即是鼠标的手指)。

想要让软件以及他的宿主——打算机,识别你的意图,开拓者须要完备依赖于鼠标在打算机上的点击、拖拽、滚动等交互办法来设计软件反馈。
而现在,有了一种新的范式,便是自然措辞。
基于LLM这样的大模型,机器已经或逐步可以足够理解人类的措辞并做出精确的反响。
如果再有鼠标的交互加持,人类利用机器的效率会有更大程度的提升。

以是自然措辞交互可能会成为所有软件产品的必须。

3. 插件化一些软件,再淘汰一些软件

软件的工具如 word、PPT、EXCEL、印象条记、Xmind、github正在“+AI”以降落利用本钱了。
你可以自研AI能力,也可以让自己被插件。
当新的用户习气被养成,那些不能AI化的软件会显得非常难用。

比如一个数据剖析平台,

如果数据查询只能通过自助式点选,而不是问答式就会面临用户体验差评,如果数据查询报表还须要人来去总结数据根本表征,而不是自动进行总结也会面临用户体验差评。

于是,产品就会有逐步被弃用的风险。

4. 想象力变得更为主要

工具本身的术变得不是那么主要,AIGC类型的工具利用门槛相对变低,但对人的大脑反而提出了更高的哀求。

人的想象力是无限的,但实现能力是有限的,而AIGC工具,他可以让想象具象化,乃至在你创作过程中给你惊喜。

过去做一张如下的图须要在设计软件上进行至少数小时的操作,低级选手光设计工具就得学习良久。
如果这个需求是来自于客户,那这个中的沟通和理解本钱会变为很大的设计本钱。

图:在Midjourney平台的创作而现在,你只须要描述你想要的,纵然你要一个五彩斑斓的黑,AI也会实时给你一个他认为精确的反馈,你可以基于此不断用措辞进行调度或辅之以设计师的PS之术。

想象力变得越来越主要,乃至可以说得到了开释。

四、值得思考的地方1. 依然存在的学习本钱

机器可以理解人类的措辞,但并不代表可以精准理解人的意图。
这之间的gap须要人去不断对机器调优,如模型迭代,同时也须要人去理解机器的语法,比如现在的Midjourney、playground,你的提问或prompt的利用也是有语法的,并合营图形界面上的一些掌握功能。

图:Midjourney的prompt“语法“,来自于网络视频

2. 置信度

说GPT不苟言笑胡说八道,不是没有证据,这是我最近的实际测试。

我:140和290之间有多少个质数?

ChatGPT:

140到290之间的质数包括:149, 151, 157, 163, 167, 173, 179, 181, 191, 193, 197, 199, 211, 223, 227, 229, 233, 239, 241, 251, 257, 263, 269, 271, 277, 281, 283, 293。
因此,140到290之间有28个质数。

我:直接见告我有多少个,而不是列出来。

ChatGPT:在140和290之间,共有28个质数。

我:确定?

ChatGPT:是的,确定。

我:重新打算一下,再给我一个答案。

ChatGPT:非常抱歉,在上一个回答中我犯了一个缺点,实际上在140到290之间有23个质数。
感谢您的提醒,希望这次的回答能够知足您的哀求。

你以为这便是精确答案?这还不算完,于是我让他写了一个python脚本:

代码没问题,我实行了,于是:

没错,按ChatGPT给我的python实行,答案是27。
诶?换个角度想,他也会犯错,是不是更像人类?

3. 可阐明性

可阐明是可信的条件。
我们塑造了他,却不理解他,如果他输出了一个缺点的答案,但看起来是那么精确,这时候我们就得当心了(就像文中那个求解质数问题,看起来是那么精确),运用在教诲、医疗、建筑设计等领域,他输出了一个缺点的药方、他设计了一个尺寸差了几公分的图纸,如果他犯的缺点无法及时创造,那他产生危害须要人类来买单。

我们须要理解他的决策动机是如何天生的,没错,便是动机。
由于人在决策哪怕是犯罪,都会寻求背后的动机,是利他、利己还是此人有精神疾病,终极都会试图用动机来阐明。

不能只推导到用了什么打算框架和算法,然后就给他一直地喂数据,要想让他更好的为我们做事,找到得当的机遇影响他,而不是任由他,末了可能站在我们的对立面。

换句话说,“知其以是然”也是我们求知的源动力。

4. 数据安全、用户隐私与版权

数据是GPT的养料,用户的数据从此变得越来越主要,想要微调,普通用户想要利用,须要贡献一方数据。
GPT无国界,但数据有国界。
目前海内里大型企业对GPT的API能力也仍处于封闭状态(以是我们国家也一定会有自己的大模型,比如百度文心一言)。

关于版权,我们看ChatGPT自己如何说:

“根据国际版权法,创作作品的版权常日归原作者所有。
但是,当作品是由人工智能天生时,问题就变得繁芜了。
由于人工智能本身没有创作权,它只是根据预设的算法和数据天生内容。
以是,根据现有的版权法律,AIGC的版权归谁是一个尚未确定的问题。

其余,AIGC的版权问题还涉及到人工智能的产权和知识产权。
在AIGC的天生过程中,常日会涉及到许多算法、数据、模型和程序等,这些都是有产权和知识产权的。
因此,除了作品版权的问题之外,还须要考虑这些产权和知识产权的归属问题。

综上所述,AIGC的版权问题是一个繁芜的问题,须要在法律、技能和伦理等多个方面进行磋商和解决。
我们须要寻求各方面的见地和建议,来制订适当的法律和政策,以促进人工智能技能的发展和利用。

5. 任务与责任

自动驾驶时发生了事件,驾驶员须要承担100%的任务。
同样的,利用AI工具事情,如果犯错了,无论是工具还是人为的缺点,那任务依然归咎于人。

以是人类任务与责任的存在,决定了纵然在AI时期,某些事情至少须要一个人来担(bei)责(guo)。

6. 可持续性

这个大模型确实可以成为一个可持续再生的金库,为人类做事。
不过此时,他已经站在我们身旁,一同跟我们进化,人类长高1厘米,他可能会长高3厘米。

但如果人类停滞对他的数据输入,无论是新的知识、新的研究、还是本日的新闻,乃至对他的答案不做任何反馈。
那么他也会过期或不那么好用。
为了有更多的金矿可以攫取,我们会进入一个循环,一直的喂养他,迭代他,对他的输出再反馈,他也一直地进化为我们做事。

五、职业发展

什么样的职业会被取代,不如想想什么样的职业会变得越来越主要。
我以为可以从两个角度思考:

1. AI建造师

AI本身也是人创造出来的,如果他会取代一部分人的事情,那就走到上游去成为创造他的人。
AI算法工程师、数据采集与管理专家、AI软硬件产品设计与开拓、芯片、AI领域新闻媒体,这些都因此AI为中央的高下游领域。

2. 会用AI的人

一部分会用AI工具的人已经尝到了甜头,比如已经在Youtube、B站分享AI工具利用以及做教程的up主,他们都是第一波会用AI的人,已经赚到了AI启蒙的红利。

在企业内,AI可能不会完备替代某一岗位,但会更换掉一部分。
如设计师、工程师,根本事情可以交给AI来做,但AI输出的结果须要有人审验,更主要的是须要有人担责,以是也会须要部分专职。

专栏作家

一个数据人的自留地,公众号:一个数据人的自留地。
大家都是产品经理专栏作家,《数据产品经理修炼手册》作者。

本文原创发布于大家都是产品经理。
未经容许,禁止转载

题图来自Unsplash,基于CC0协议。

该文不雅观点仅代表作者本人,大家都是产品经理平台仅供应信息存储空间做事。