这不是科幻片!科学家称未来计算机或能删除你的思想

2018-02-06 16:55:01 来源: 中国日报网 作者:

据英国《每日邮报》4月26日报道,生物伦理学家的一项最新研究发现,未来的计算机或许能够在人们意识不到的情况下,对人类的思想进行收集、储存甚至删除。

生物伦理学家在研究中表示,与人类大脑相关的神经技术未来将更加先进,应用也更广泛,但同时也会被黑客盯上。他们会在未经授权的情况下入侵人们的思想,窥探大脑中的想法甚至可以将其删除。

神经技术的发展将大脑成像和人机交互等技术带离医学上的临床应用,带入消费领域。如此一来,虽然这类技术的进步可能会有益于个人和整个社会,但确实存在被滥用的风险。研究人员认为,这会给个人自由带来意想不到的威胁。

研究报告的联合作者罗伯托·安多尔诺教授解释称,大脑成像技术已经发展到一定水平,刑事法庭中也出现了关于其合法性的讨论。大脑成像技术不仅被用于评估嫌疑人的刑事犯罪责任或重新犯罪的风险,消费品公司也在用它来了解客户的消费行为,进而从消费者身上获得企业想要的反应。

研究人员表示,随着神经技术的发展和普及,该技术有可能被黑客入侵,人们的思想也可能因此遭到入侵。用来控制消费者行为的人机交互技术如果被第三方攻击,可能对使用者造成生理和心理上的双重损害。

报告还指出,由于这类技术不断发展,有关的人权法也应与时俱进。新法律要保护人类的思想自由,使之不受侵犯。同时,研究人员也警告称,神经技术的发展可能在未来威胁和侵犯人类的思想隐私。

该报告的作者们建议在不久的将来出台四项新的人权法,防止隐私等被别有用心者利用。这些人权法涉及公民的认知自由、精神隐私、精神完整性以及心理连续性等权利。

报告的主要作者、瑞士巴塞尔大学生物医学伦理研究所博士生马尔塞洛·延卡说:“思想被认为是个人自由和自我决定的最后庇护所,然而神经工程学、脑成像科技和神经技术的发展进步将思想自由置于危险境地。”

延卡还表示,在研究中所提出的立法建议将赋予公民对具有强迫性及侵略性的神经技术说“不”的权利,同时为神经技术所收集的数据提供隐私保护,防止人们的思想受到神经技术滥用的伤害。

加载更多>>
责任编辑: 桂楷东
专题 更多>>
评论 更多>>

奖励与科研资助不能混为...

6月30日,四川农业大学水稻研究所陈学伟团队因为一篇发表...

人工智能会“抢”走人类...

如今,人工智能不仅会下象棋、围棋,还在分发邮件、工业...

谷歌遭重罚警示了谁

近日,欧盟对互联网巨头谷歌的一纸罚单,引发业内震动。...

“复兴号”背后的科技强...

6月25日,由中国铁路总公司牵头组织研制、具有完全自主知...

快递派送费集体涨价令人...

快递派送费该不该上涨或者该上涨多少,这是一种市场选择。...

独家编译 更多>>

美国科学家发现核废料清...

华盛顿州立大学一项有关锝-99的化学研究,提升了我们对这...

研究含尘空气,对于当地...

了解阿拉伯地区大气特征,对于全球研究都有益处。污染、...

全球变暖背景下,如何为...

在全球变暖的背景下,科学家和政策制定者正在研究如何为...

无人机将是植物育种学家...

在一项新的研究中,在对潜力品种的测试里,无人驾驶飞行...