首页 » 虚拟现实:万象的新开端 » 虚拟现实:万象的新开端全文在线阅读

《虚拟现实:万象的新开端》表达

关灯直达底部

我要坦白:在20世纪80年代,没有“按键”动作就没有办法做出显性效果。当时的机器视觉和机器学习还不够好。

因此,我们需要小部分语言来描述屏幕按钮等显示和用户界面功能,但我们知道这只是对临时问题的临时修补。[10]摩尔定律表明,计算机最终将变得足够快,不仅能够识别身份,还可以辨别相似性。到那时,编辑器就能够通过机器视觉观察另一编辑器,并用虚拟的手进行操作,不再需要像按钮这样的用户界面元素的抽象表达。

在20世纪90年代中期,计算机的速度终于足以实时识别视觉相似性了。我和一群新朋友创立了名为Eyematic的初创公司,进行面部识别、面部特征跟踪等机器视觉任务。(我们当时赢得了美国国家标准技术研究所举办的比赛,在现实世界的不同困难条件下识别和跟踪面孔。)

Eyematic团队的大多数科学家都曾是神经科学家克里斯托夫·冯·德·马尔斯布尔格(Christoph von der Malsburg)的学生。以前VPL的几位同事也在这里重聚,其中包括查克和一些之前的投资人,不过公司的核心是哈特穆特·内文(Hartmut Neven)。最终谷歌收购了这家公司。

我得承认,最开始参与其中几个有效的面部跟踪和识别项目时,我有些不安。我们是不是创造了一个怪物?我利用Eyematic的一些原型制作了邪恶技术的工作模型,用在了《少数派报告》的场景中,比如男主角在逃离警方追捕时,他经过的广告牌会识别出他,并将他的位置向所有人广播。

我还是坚持做了,原因在于我觉得这个技术带来的益处会弥补可能产生的遍地监视的罪恶。如果能够通过机器视觉识别人脸、跟踪表情等,我们能否通过这一能力让编辑器使用其他编辑器?我们最终会抛弃暂时的补丁,利用恰当的气隙,建立适当的显性系统。

在这种情况下,除了自己的用户界面外,显性编辑器不用支持任何交互界面或方法。没有任何协议,没有需要记录的抽象变量,没有应用程序接口[11]。

编辑器中的机器视觉和机器学习算法将用于解读和操作虚拟手,虚拟手会被用于触摸其他编辑器。编辑器无法识别在特定时间进行操作的是人还是另一编辑器,因为这两种情况下的界面都是相同的。

编辑器内的代码,其本质就是支持编辑其他编辑器,它不会被标准化。特定编辑器的编程方式也不会被标准化。

一些编辑器可能会通过训练执行任务(就像我们用例子来训练机器学习算法一样),另一些编辑器可能必须进行明确的编程。所有编辑器都可以和其他编辑器交流,就像人一样。

我相信这个好处足以弥补监视带来的问题。如果我们的信息系统可以基于类似我所描述的显性原理来构建,那么我们最终使用工具时,将不再需要接受某些普遍和永恒的抽象概念。

鉴于从现在起,我们的信息系统将服务于社会各个方面,担任年轻人成为社会个体的指南,转向这种拥有多元的、可撤销抽象对象的信息架构变得十分重要。这可能就是未来鼓励开放和自由的方式。

我知道这个希望听起来可能有些深奥,像是信仰的巨大飞跃,甚至像是乌托邦式的冲动,但它实际上试图超越乌托邦。

我们暂时将这些宏图大志放在一边,能用虚拟面孔追踪人脸表情就非常有趣。有段时间,我曾在一些俱乐部(如20世纪90年代纽约的Knitting Factory)里,用我们怪异的乐队尝试了一些富有表现力的化身面部形象。比如,我们这些古怪的乐手身后会有个大屏幕,将我们映射成当时那些腐败的政客形象。