欢迎大家来到IT世界,在知识的湖畔探索吧!
如果找不到适宜的技术来防止人机接口的被入侵和篡改,人机接口无异就是潘多拉的魔盒。
瑞士巴塞尔大学生物医学伦理研究所博士生马塞罗•伦卡和其同事罗伯托•安多诺称,随着技术发展,未来的电脑或许能在你不知情的情况下收集、储存或删除你的思想,从而让思想自由成为一句空话。
在生物伦理学家眼中,科技侵犯人的思想自由目前可能会在脑(人)机接口(交融)技术上首先获得突破。
探究人类思维的奥秘一直是研究人员的理想,也是各国脑计划的重要内容之一,脑机接口的目标是让电脑能接收和读懂大脑的想法,以便用大脑直接指挥电脑,完成人脑和电脑单独无法完成的工作和任务,以及产生创新思维,治疗疾病等。例如,最新的人机接口已能让电脑读懂上肢瘫痪者大脑的指令,并把这一指令传递给机器臂,让机器臂代替上肢完成吃饭的动作。
在脑机接口研发上,目前分出了两大派别,一是侵入式,一是非侵入式。前者以特斯拉的CEO伊隆•马斯克为代表,靠对大脑植入无数微小电极来收集大脑脑电波,并对其解码,让电脑读懂大脑的想法;后者则以脸书的CEO扎克伯格为代表,使用传感器探测和收集大脑各个中枢的脑电波和意识,并对脑电波解码,以获取人脑的想法。
这实际上是脑机融合的两种技术的竞争,马斯克的计划预计在8~10年内实现解读并把人的内心想法传递给电脑,而扎克伯格则计划以少一倍的时间实现脑机融合。至于对大脑成像的解读也有一些相当多的科技人员在研发,随着时间的推移,读懂大脑成像的意图和想法,并转化和指挥机器也将成为现实。
当这些技术手段实施时,最为忧虑的当然是黑客入侵,由此可以篡改一个人的思想和真实意图,更为极端的做法是通过黑客入侵提前知道某个人的思维和想法,让读心术成为现实,从而采取各种手段阻挠和击败对手,当然也包括提前阻止恐怖分子的袭击行动。
同时,这种入侵人机接口的方式也可以成为更为广泛和实用的政治工具,即便不去改变人的思想,也可以提前知道一群人的想法,尤其是在大选中,不用民调,采用黑客入侵人机接口的方法,就可以知道民意,从而采取各种措施,左右和操控大选。
面对这种危险,伦卡和安多诺提出要以立法来预防,以保护人们的思想自由不被剥夺,也即以四项法律来保护人们相应的权利,包括认知自由权、思想隐私权、保持思想完整的权利,以及保持心理上连续的权利。保护这四种权利概括地讲,就是保护个人思想完整性的权利,其本质是,未来在人机交融技术广泛使用时,要防止个人的思维、隐私或敏感信息在未授权的情况下被收集、储存、使用甚至是以数字形式删除。其实,这是一个非常困难的问题。
思维或思想是人最隐私的部分,如果不能体现出来,就难以保护,即便人机接口的使用可以让电脑和机器接收和读懂人的想法,也仅仅是体现在大脑和机器中,而作者提出的是,要防止黑客入侵,避免在未授权的情况让一个人的思想被收集和储存。但事实是,黑客入侵并不需要任何授权。
对于这样的保护思想自由,除了立法,其实需要更为严格和易于操作的技术和措施来完成。如果找不到适宜的技术来防止人机接口的被入侵和篡改,人机接口无异就是潘多拉的魔盒。当然,更应当立法防止的是,任何人都不能被强制接入和采用人机接口。
作者:张田勘(科学史学者,已出版《疫病简史》《生命存在的理由》等专著16部,大量文章发表于国内外媒体)
※《科学大观园》2018年2月下(总第541期)专栏
投稿可发至编辑部邮箱dgy_science@163.com
免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://itzsg.com/57058.html