欢迎光临散文网 会员登陆 & 注册

用简单的方式讲清楚AI

2023-08-03 15:32 作者:坑王老薛  | 我要投稿

随着使用GPT和SD的频次越来越高,我们可能迫切的需要提升自己关于AI的理论知识。 但是在网络上找到的理论知识真的很让人望而生畏。这些东西到底代表什么呢? 今天我们就把一些基础性的专业名词来和大家讲一讲:

首先我们来看第一个很重要的,很专业的词AI(Artificial Intelligence)

什么是AI

首先第一个AI人工智能目前是一个学科。所以我们很多时候说的构建了一个人工智能其实有点**了。

你听过有人通过应用层落地东西说自己生产了一个学科吗。我们举例子说:

  • 我们公司今年的目标就是做出来一个自己的AI,人工智能。听着似乎还不错!

说这样的话,站在专业角度而言,就有点类似:

  • 我们公司今年的目标就是做出来一个自己的计算机科学与应用,计计计算算算机机机科科科学学学与。。。

那么为什么出现这样的情况呢?

官方不明确的定义

在任何组织或者是机构包括我们常用的搜索引擎中都没有一个很正式的对于AI的定义的内容。

但是在程序员界流传着这样一句话:

“cool things that computers can’t do.”

但是回过来我们想想,最大的问题在于计算机处理的是一切已知的任务。

我们用需求去界定当前的任务是否可以被处理。也就是在程序开发中,我们需要明确的是计算机一定是可以做的。 真的让人头大。

电影的过度消耗

我们对于AI的另外一个很好玩的理解来自于电影。

比如钢铁侠中的贾维斯、澳门风云中的傻强。

这些角色也好或者是机器也好,让我们认为人工智能是一个可以帮我们解决所有问题的机器人。

但是实际上AI是一个很宽泛或者又或者是很交叉的一个学科。

所以先入为主的观念其实让我们对于AI的理解出现了偏差。

就和我们现在说的智能家居、智能风控等等等等 ,似乎大家觉得还是不够智能。另外很重要的一点就是我们真的没有觉得它有多么的智能!

还有另外一个典型的大家都碰到的过:苹果的Siri、百度的小爱同学。

尤其是Siri。这个号称智能助手的东西简直像个**。

这里稍微给大家说明一下,我们现在在使用GPT等工具的时候,也会发现LLM(大语言模型)有时会睁着眼睛说吓唬。 如果它真的有眼睛的话。

所以作为一家公司而言,它一定是不会允许自己的产品在给用户建议的时候给出的建议是错误的。

另外一个很重要的原因是这个产品的使用频次又如此的高。

AI

人工智能应该是计算机科学的一个子集。它应该就是一个概念,问题和解决这些问题的集合。

他需要具备的特性有两个:

Autonomy 自治

能够在复杂的环境中执行任务,而无需用户的持续指导。

Adaptivity 适应性

通过从经验中学习来提高绩效的能力。

所以在这个基础上,我们了解AI我的理解应该就是编写好的一个程序,当它运行的时候,我们作为开发者都很难能够预测出它的执行顺序或者是逻辑。就像OpanAI CEO说的那样:我们也不知道它如何出现的。

而且通过上面两个和有意思的词,我们可以得到另外一个结论:

非人工的参与和越来越聪明。

而这个也恰恰是我们大多数人所认同的对于人工智能的定义或者是理解方式。

这张图表述的是:

  • A: 计算机科学

  • B:人工智能

  • C:机器学习

  • D:深度学习

  • E:数据科学


这张图标主要是让我们能够更加清楚层次,仅此而已。

最后,最近一段我们经常会出现的问题是,我艹,AI会不会代替我的工作呢? 我的个人看法:

AI真的还没那么强

大家不用特别恐慌AI对于自己所在职位或者是行业的挑战。因为现在能够看到的比如GPT他本身是存在一些边界的:

巧妇难为无米之炊

目前的大语言模型还是需要通过预处理来做的。也就是说需要通过一些前置的训练数据来完成建模。 在这个基础上,就像一个厨师,你给它好的食材,它能做出好吃的菜;你给它坏的食材,它只能做出不好吃的菜。也就是 说,模型质量很大程度上取决于它训练用的数据质量。

我们讨厌同质化

某些情况下,噪音数据也就是我们所说的质量不高的样本数据会影响最后的模型。 但是同样的如果基本没有噪音你会发现不论是GPT也好或是SD也罢,他们回答或者是出图同质化是很重的。 回过来你会发现目前市场上面大多数公司或者是创业者的方向: 有钱的、有资源的、有数据的构建自己的大模型; 有点技术抱负的为了抓住风口做的就是垂直方向,越垂直越好。

我们看不见的黑盒子

大语言模型就像一个黑盒子,你很难人工调控它的内部参数。就像开车时很难直接控制引擎内部的活塞运动一样。 另外如果你查看了比如像GPT这样的大语言模型的参数,你会发现,脑壳疼。


你期望一个孩子能够代替你的工作吗

在GPT的整个发展工作中,你会发现在第三个阶段的时候,为了保证数据的反馈。整个团队提出了一个正逆向反馈机制。 这个机制说简单一点: 就像一个爱吃糖的孩子,你给他一点糖果可以增进关系,给太多糖果则会糟蹋牙齿。 所以在这样的情况下,你不能试图让一个爱吃糖的小朋友代替你的工作吧?

但是写在最后:以为AI能够在短时间学会我们几辈子都无法学习到的知识,那么这些知识的堆砌是很可怕的。 如果我们能够用好它,势必会加速我们的自身能力。


所以我的建议,打不过就加入!!!


最后给我的连接圈打波广告。目前连接圈今天晚上开始试水!后面我也会同步每天内容。8月1日到8月15日 只招收10名。我先陪跑!在群的小伙伴今晚先填写申请表,然后通过就可以加入了!



本文使用 文章同步助手 同步

用简单的方式讲清楚AI的评论 (共 条)

分享到微博请遵守国家法律