浅谈个人对AI和文字模型看法

GPT是一个强大的语言模型,信息工具,建立在大型数据中心CPU-GPU计算构造上的,ASCII(American Standard Code for Information Interchange,美国信息互换标准代码,ASCⅡ)是基于拉丁字母的一套电脑编码系统。它主要用于显示现代英语和其他西欧语言。它是现今最通用的单字节编码系统,基底还是16进制转化字母,自计算机技术革命以来积累了大半个世纪,16进制对应国产字体编码系统的发展基本没有,甚至进制都是别人的研究成果,自研的各类架构X86,ARM,RISC-V之类的cpu无一例外全部是基于ASCII编码标准,根本没有汉字标准,也就是说国内互联网和99%信息系统全部是构筑在字母搭建框架上,简而言之现在手机屏幕上的每个字都是16进制转字母再转汉字而来,计算机互联网革命,智能手机出现对人的生活和社会带来的影响可见一斑。但是这个框架我们拿来用了一切也还是别人的东西,只要这个框架自研出来所谓的中文语言模型或者叫AI,他也是字母再翻译过来的东西,AI学习消耗的计算力加入了转译数据量肯定是指数级的增大。之所以叫语言模型他是要基于真正的语言文字来进行逻辑演算推理得出结论,所以GPT的汉字解答,就算他自己根据学习到的汉族文字表述规律来修正过,也多少有点翻译出来的感觉,而且写文言诗并不押韵。纵观熟悉通讯只能说自家是底子都没有,硬要说科学无国界是全人类共同的科技成果,那别人必定会加个门槛。进制编码这套东西已经由别人定型,虽然我们习惯吃快餐和借鉴,必定也没团队有心力能从根源研究出来,但肯定有人会拿来套壳骗补贴。英文根本组成是26个字母,而汉字的根本是笔画,一个字拆开多少笔画,又有多少字,难度可想而知。想一想1837年出现的摩尔斯电码,回头看看脚步停在哪里了,也许就在停在电和信息结合时期吧,也就晚了几个世纪而已。