人工智能研究是否应当像基因技术研究一样,设立严格的研究伦理禁区,以免创造出拥有人类情感的强人工智能?
这个问题在逻辑链上本身就有问题。
禁区的建立是要先有建立禁区的资格。
人工智能是否能有人类的情怀在于人们是否具备能力能让它具备人类的情怀,说到底还是人们自身的问题。
举个例子:你给小朋友们讲微积分,然后让他们用微积分解决实际问题,或是给失明失聪的人电影票。他们可能会回应你听不懂或者无视你,即使你用尽可能将这一信息告诉双失的那个人,也有可能得到你是神经病的回应。
人工智能的产品是给需要的人生产的,但需要不是用人工智能就最好。
如果出题人是在用自己的价值观去判定和他可能毫无关系的人工智能是否能满足她生存和发展的需求,未找到答案,然后慌乱的向外求所。
能用就用,用就要承担用的责任,光进不出的那是貔貅。
另外,人工智能也是有强弱之分的,在弱中有强,强中也有弱,不能一杆子划定一切,这样非黑即白的认知逻辑就现在而言已经是被淘汰的认知逻辑,再去谈人工智能,已经是在制造混乱了,还要要我给你帮衬,和你一起傻。
那我应该有责任提醒邀请人,你和我一样都需要先完善或是使我们自己的认知结构和逻辑,实事求是的应对我们所面对的不期而遇。先做好自己,在不给政府和大众造成恐慌和时间、精力允许的情况下,先把自己提升起来。