你说“有自我意识”,这个属于人工智能中强人工智能学派的观点
暂无定论
但是,许多科学家都认为实现强人工智能的可能性还是比较大的。比如,史蒂芬霍金在《果壳中的宇宙》中的一章中,曾经提起过,他认为当电子大脑复杂程度等于或者大于人脑的复杂程度时,机器出现自我意识是很有可能的。而且,会比人类聪明(人类的大脑是使用化学信号传递信息的,而机器是电信号,接近光速,在大脑高度复杂的情况下,传递时间比人类要快的多)
当然,这只是现在的猜测。目前人工智能领域的研究还没有达到这个水平。
我本人也支持强人工智能理论。
人工智能出现可能性就是思维和电的结合.人的神经是化学电感传送人类能提取我们人类神经的时候那也就是智能机体出现的日子.
人工智能有强弱之分。
弱人工智能没有异议,早就已经在使用了(比如识别系统)。
至于强人工智能有些人认为是可能的,有些则持怀疑态度。
自我更新的话,一些计算机病毒已经可以做到了。
本人是强人工智能派,既然意识符合物理学原理,没有道理不能用计算机模拟出来。
大概已出现了,在mugen中就有被称为“论外”的1类角色,其中的角色由于ai和角色本身的特性没法(或极难)被杀死。 举个例子,如果ai不先动而是等对面先动,这样理论上对面的所有行动都能完善对应,可以保证不会输,但是如果两个相同的ai放在1起大概就不会有胜负了,由于双方都不会先动。 固然设计这样的ai意义其实不大……格斗游戏的1大乐趣就是挑战反应极限,由ai来做的话就毫无意义了。
当然可能。
不过自我意识出现恐怕还要等待一定时间。
显然, 不然我怎么能够回答你的问题?
Hadoop|
Apache Pig|
Apache Kafka|
Apache Storm|
Impala|
Zookeeper|
SAS|
TensorFlow|
人工智能基础|
Apache Kylin|
Openstack|
Flink|
MapReduce|
大数据|
云计算|
用户登录
还没有账号?立即注册
用户注册
投稿取消
文章分类: |
|
还能输入300字
上传中....