全息投影的概念最早是在哪部科幻作品中提出的
2021-05-22 23:39

  我不知道最早是哪里,我第一次知道这个东西是《光晕》游戏里,飞船上的人工智能。

  1947年,英国匈牙利裔物理学家丹尼斯·盖伯发明了全息投影术,他因此项工作获得了1971年的诺贝尔物理学奖。其它的一些科学家在此之前也曾做过一些研究工作,解决了一些技术上的的问题。全息投影的发明是盖伯在英国BTH公司研究增强电子显微镜性能手段时的偶然发现,而这项技术由该公司在1947年12月申请了专利(专利号GB685286)。这项技术从发明开始就一直应用于电子显微技术中,在这个领域中被称为电子全息投影技术,但是全息投影技术一直到1960年激光的发明才取得了实质性的进展。

  第一张实际记录了三维物体的光学全息投影照片是在1962年由苏联科学家尤里·丹尼苏克拍摄的。与此同时,美国密歇根大学雷达实验室的工作人员艾米特·利思和尤里斯·乌帕特尼克斯也发明了同样的技术。尼古拉斯·菲利普斯改进了光化学加工技术,以生产高质量的全息投影图片。

  全息投影可以分为如下若干类。透射全息投影,如利思和乌帕特尼克斯所发明的技术,这种技术通过向全息投影胶片照射激光,然后从另一个方向来观察重建的图像。后来经过改进,彩虹全息投影可以使用白色光来照明,以观察重建的图像。彩虹全息投影广泛的应用于诸如信用卡安全防伪和产品包装等领域。这些种类的彩虹全息投影通常在一个塑料胶片形成了表面浮雕图案,然后通过在背面镀上铝膜使光线透过胶片以重建图像。另一种常见的全息投影技术称为反射全息投影,或称为丹尼苏克全息投影。这种技术可以通过使用白色光源从和观察者相同的方向来照射胶片,通过反射来重建彩色的图像,以重建图像。镜面全息投影是一种通过控制镜面在二维表面上的运动来制造三维图像的相关技术。它通过控制反射光线或者折射光线来构造全息图像,而盖伯的全息投影是通过衍射光来重建波前的。

  促使全息投影在短短的一段时间内就蓬勃发展的关键原因是低成本的固体激光器的大规模生产,如DVD播放机和其他的一些常用设备中所使用的激光器。这些激光器对全息投影的发展也产生了极大的促进作用。这些廉价的体积又很小的固体激光器可以在某些条件下与最初用于全息投影的那些大型的昂贵的气体激光器相媲美,因此使得预算较低的研究者、艺术家甚至业余爱好者都可以参与到全息投影研究中来。

  2014年6月,美国加州的一家新创公司,正在研发三维全息投影芯片,最早2015年底之前,智能手机将具备三维投影的功能。研制出一个体积只有药片大小的三维全息投影仪,分辨率高达5000PPI,可以精确控制每一个光束的亮度、颜色,以及角度。

  只需要一个芯片,就可以投射出一个可以接受的三维全息图像,不过只要增加芯片数量,则可以投射出形状更加复杂的三维物体,细节更加详实,这一芯片和技术的研发还在初始阶段,第一款芯片,目的是全息投影二维图像,预计芯片可以在2015年的夏天交付给手机厂商。

  他们研制的第二款投影芯片,将可以实现全息三维投影,立体影像可以漂浮在空气中,看上去就像是一个真实存在的物体。第一款芯片推出几个月之后,第二款芯片也将开始进入生产制造。

  另外除了智能手机之外,该公司研发的三维全息投影芯片,还将进入到各种显示设备中,比如电视机、智能手表,甚至是“全息桌面”。届时,三维全息投影时代将真正到来。

  全息投影技术(front-projected holographic display)也称虚拟成像技术是利用干涉和衍射原理记录并再现物体真实的三维图像的记录和再现的技术。

  其第一步是利用干涉原理记录物体光波信息,此即拍摄过程:被摄物体在激光辐照下形成漫射式的物光束;另一部分激光作为参考光束射到全息底片上,和物光束叠加产生干涉,把物体光波上各点的位相和振幅转换成在空间上变化的强度,从而利用干涉条纹间的反差和间隔将物体光波的全部信息记录下来。记录着干涉条纹的底片经过显影、定影等处理程序后,便成为一张全息图,或称全息照片。

  其第二步是利用衍射原理再现物体光波信息,这是成象过程:全息图犹如一个复杂的光栅,在相干激光照射下,一张线性记录的正弦型全息图的衍射光波一般可给出两个象,即原始象(又称初始象)和共轭象。再现的图像立体感强,具有真实的视觉效应。全息图的每一部分都记录了物体上各点的光信息,故原则上它的每一部分都能再现原物的整个图像,通过多次曝光还可以在同一张底片上记录多个不同的图像,而且能互不干扰地分别显示出来。

  每个人都有两个眼睛,每个眼睛的视角大约为80度,但是两个眼睛一起的视角只有120度,也就是说有40度的视角是重合的,所以我们的左右两个眼睛所看到的的东西其实是不同的,比如你闭上左眼用右眼看或者反过来,就能测试出来效果,左右两眼接收到的物体转发给大脑做判断物体的远近才能形成立体感。3D立体技术就是模拟这个过程而形成的。

  在3D投影前,要对物体进行120°的3D摄影。看过3D电影的读者应该知道,如果取下3D眼镜观看,画面有重影而模糊不清。只是因为,银幕上的画面并不是一幅,而是两幅角度不同的画面叠加的效果。

  为了模拟“双目效应”,必须拍摄出偏左侧的画面和偏右侧的画面。在拍摄时,其实有两台3D摄像机同时工作,一台偏向演员左侧,记录偏左的图像;一台偏向演员右侧,记录偏右的图像,再通过电脑处理,将两幅图像叠加,便成了3D电影源。

  完成摄影后,在放映室里,3D电影源投放在一定角度的银幕上,观众需要带上3D眼镜观看。仔细观察3D眼镜,会发现左右镜片上有密集而细小的朝向不同的条纹。左镜片是纵纹,右镜片是横纹。正是这些条纹,才能看到美妙的3D立体图。

  完成摄影后,根据“双目效应”,需要将图像分解,让左眼只看见偏左的画面,右眼只看见偏右侧的画面,这样才能使大脑产生远近的判断而生出立体感。在放映时,偏左的画面和偏右侧的画面所用的投射光是不同的,虽然颜色画面一样,但投影用的光的传播方向是不同的,偏左画面用的是纵波光(光波沿纵向传递),偏右画面用的是横波光(光波沿横向传递),由于偏振光的特点(物理选修3-4 第十二章 第三节)纵波光只能穿过纵纹,不能穿过横纹,因此,透过左镜片,只能看见偏左侧的画面,同理与右镜片。

  由此,重叠的画面被分解,左眼只看见偏左侧的画面,右眼只看见偏右侧的画面,由于双目效应,便产生了远近感和立体感。