按键盘上方向键 ← 或 → 可快速上下翻页,按键盘上的 Enter 键可回到本书目录页,按键盘上方向键 ↑ 可回到本页顶部!
————未阅读完?加入书签已便下次继续阅读!
林泉说,正是因为意识网的原因,矛盾一旦出现,就将引起反应,而在这个过程中,矛盾往往都会消解,从而没有酝酿爆发的机会,更不用说严重到引起精神状态异常了,从这个角度上来说,卡梅尔在选择移民的时候,自然会倾向于那些在习惯上能够和卡梅尔融为一体的人,一般来说,也就是那些比较纯粹,或者说,直肠子的人,对于杜伟这种“思维习惯”有一定瑕疵的人选,都会作滞后考虑。
这也是为什么卡梅尔移民总是优先那些意识网的长期用户,并不是说他们的硬件条件就更好,而是因为他们有过意识网的使用经历,已经开始习惯意识网的这种思维习惯,从某种程度上来说,这样的人进入卡梅尔对原住民的冲击会很小。
一种工具能够创造一种文化,这一点其实在意识网之前,因特网上已经表现的很明显了,意识网只不过是这个文化现象的延伸,因为体验感更强,甚至比现实生活还强,所以有压过之前的主流文化,独立出来的趋势。
在回学校后,直到开学的这段时间里,杜伟一直都一个人闷在宿舍里,有意识的尝试着控制自己的思维习惯,努力让自己习惯自己在意识网中,感受到的那种思维状态。
杜伟自己并不清楚,就在他努力这么尝试的时候,在距离宁州数千公里以外的东京,在筑波大学那占据了三层楼的机柜里,无数正在运行的程序,也正在做着本质上和他一样的尝试,或者说,改变。
有时候,一种工具,能够创造的不仅仅是一种文化,甚至,可能是一种文明。
正如人类始终尝试着去理解大自然这个造物主,作为人类的创造产物,一群在许多人看来,仅仅是处于“虚拟”状态,本质上仅仅是一些电路逻辑组合的一堆程序,也正在用他们原始而拙劣的方式,努力尝试理解着与他们世界截然不想关的一些概念。
只不过,与人类不同的一点是,人类知识大自然一个美丽的巧合,而这群电子程序,却被他们的创造者赋予了确切而又重要的使命,从这个层面上来说,他们务必要表现的比人类更优秀。
☆、319 代表
对于一名AI来说,学习几乎就是一种基因化的本能,不管是在严可守的第几套源程序修改方案中,AI的主程序通过学习,掌握更多有效信息,一直都是整个程序体系的重中只重。1(1)
因为计算机计算速度的效率,而且AI也不需要像人一样,把生命中大把的时间用于睡眠,进食等维持生命的活动上来,所以一直以来,AI学习的效率一直都非常高,不管是从之前专门为图灵测试开发的那一批AI,还是现在经过源程序修改之后的,从这一点上来说,严可守对自己的一手开发的作品还是非常有信心的,虽然目前项目的进度,距离他最理想化的那种智能还有很大差距,不过他相信,最起码,从目前看来,这些AI还是正在进步的。
如果要让严可守现在自我评价一下,目前他这些AI的智能程度,他觉得,小学生应该是一个不错的中肯评价。
乖巧,听话,但又显得有些懵懂,这就是这些AI的状态。
相比起一个月之前这些AI的表现,现在这些AI确实显得有些傻气,但这种傻气又和半个月前,那种机器一般的傻不太一样,具体的来说,就是前来参加测试的许多大学生当中,已经有很多人深信,和自己聊天的AI,已经初步具备了许多“像人”,或者说,“智能”的因素,但要他们具体的说,他们也说不上来。
要说表现,现在AI的表现也并不算特别好,措辞笨拙不说,还错误不断,常常会说出一些惹人发笑的话题出来,但智能这个词,原本在也没有严格的科学规定,从某种程度上来说,“是否智能”也只不过是人的主观感觉而已,但即使是主观感觉,只要在总的统计数据上超过一定的量,也可以被视作一种规律。
从这个角度来看,严可守最近这一个月所做的工作,还是卓有成效的。
和以前的AI测试过程很类似,当项目大部分成员认为这些AI已经无法通过互相学习,了解更多信息的时候,就会进行比较开放性的测试,这就好像即使是小学生,也不能老呆在教室和家里,接触更大的环境,不仅是对人,对AI也有非常重要的意义。
不过这一次,严可守不打算采取前面的两种方式,包括请人来参加测试,以及在网上放开客户端,在他看来,这种类型的测试,充其量也只是把小学生从课堂带到了操场,如果AI需要得到真正的锻炼,它需要拥有相当的自由度。
严可守打算直接让这些AI通过人类传统的网络交流方式,来进行“完全开放”的测试,不过这个提议因为事关重大,日本政府作为项目的监管方,暂时还没有同意。
对于这一点,严可守已经在技术上再三进行了说明,所谓AI可以利用网络不受人类控制这一点,完全不可能,在整个项目的初期,整个技术团队就已经为这些AI打造了一个最牢不可破的“牢房”。
在硬件上,所有AI都被储存这三个房间的机柜中,任何原始数据的进出,都必须得到日本政府方面的授权,事实上,日本政府现在根本没有考虑过会在这方面予以授权,就连严可守自己,也没有权利从这个房间里带出哪怕一块硬盘,就连上次他用U盘拷贝个客户端出门,都要经过两名精通计算的士兵严格检查。
在软件上,每个AI呆的环境,都可以说是遍布荆棘和炸弹,除了通过程序保证AI源程序无法被复制以外,还有大量类似杀毒软件的监管程序,监控这些AI程序的状态,如果这些程序出现任何“不被允许”的行为,包括复制自己,控制自己存储空间以外的程序,就会被认定这些AI已经“中毒”,监管程序将发出警告,并在第一时间断开物理连接,而两名随时在场的士兵就会在第一时间,将出现警告的硬盘拔出,他们甚至有权直接现场“物理摧毁”硬盘,机房的角落的灭火器箱里,一瓶红色的灭火器,但黄色的却是燃烧弹。
而且,每隔几天时间,技术人员都会对这些源程序进行检查,特别是在AI主程序之外的“辅助程序”,按照严可守制定的“人工智能安全管理条例”,这些辅助程序中除了文字处理软件,绝对禁止出现任何图像分析,特别是与图像识别相关的软件,严可守用这种手段,从根本上保证了这些AI根本就“看”不到世界,即使看到了,也“看不懂”,如果不仿照语言和文字方面对AI专门在这方面进行训练,对AI来说,任何图像都只是一堆数据而已。
严可守的三浦曾经就说过,如果AI是一个人,那它一定会对它出生的世界感到绝望,因为从它婴儿时期开始,他的创造者就制造了一堆防范他的设备,为他配备了最好的牢房,最严密的看守,最后还不放心,甚至刻意就不给它“造”眼睛,对于AI来说,这世界就是完全黑暗,没有声音,没有感觉的虚空世界,他们唯一能感受到的,就是不间断收到的“信息”,事实上,从这一点上来说,AI呆在计算机里,倒蛮像闭上眼睛的意识网用户的,除了思维上的碰撞,没有任何其他的刺激,当然,除了思维上的反馈,他们也无法做出任何有“现实”意义的事情,从这一点上来说,AI应该会成为“纸上谈兵”的最佳典范。
但即使如此,作为整个项目的监管方,日本政府对汪铭的提议还是觉得不放心,尽管这在三浦看来,根本就是把一群犯人戴上镣铐,背后顶着枪,然后拉到街上去“游街示众”,从理智上来说,确实没有太过担心的必要,但人从来就不是理智的生物,日本政府方面一再提出:“再等一等,再看一看,一定要确保万无一失……”
严可守只能暂时答应了,不过作为项目的主要技术人员,严可守还是得到了授权,在有专门技术人员在一旁“监管”的状态下,可以允许这些AI进行类似的测试。
从目前来说,要说够的上对这些AI进行“监管”资格的,除了主持最核心程序开发的不到五名的核心技术人员,也找不出其他的人了,像三浦这样的工作人员,涉及的开发内容都是与核心程序无关的外部环境和借口,对于AI的原理其实并不清楚,而许多对原理清楚的,比如项目开发初期,请教的一些行为学、心理学、甚至神经学教授,对程序又不是很了解,要说对这两方面都有足够的认识,能够真正对AI起到监管作用的,也找不到太多的人了,而其他几名技术人员都在项目告一段落的时候,纷纷回国去了,这是一个国际合作