他的方向选择对了,所有人都会一步跨上人工智能领域的大舞台,成为行业里的资深专家。他选择错了,大家一起完蛋。
不过,汤教授是麻省理工毕业的博士,很权威,大家都很相信他。
面对这么多实验室的同事和学生,汤教授就像上课一样,要说得详细一些。先简单阐述了一下逻辑学到统计学的思路转变。
图像由无数个点组成,分辨率越高,点数越多;分辨率越低,点数越少。
把图像扩大1倍,其实就是把点数增加1倍。
过去的算法,是数学、逻辑学的思路。即有了前一个节点,然后根据数学逻辑,推演到了下一个点,一个点变为两个点,就完成了拓展。把图片中所有的点都处理、扩展一遍,图片的放大就完成了。
可这是个确切的过程。
选择的节点得是确定的,才能衍生出第二个点。
如果第一个节点都是模糊的、不确定的,就算数学公式、逻辑思路再正确,也没用啊,巧妇难为无米之炊。
新的大数据下的图像处理思路,应用到的是统计学算法。
比如,有两条路,都可以到达终点,运动员选择哪一条路耗时更短?
传统的思路,就要通过数学和逻辑学上的计算。
计算路程长度,运动员的速度,以及运动员的状态、耐力、加速度、减速度、摩擦力所影响的摔倒几率等等。
拿出一套极复杂的公式出来。
可是,如果过来的运动员是没有腿的残疾人,或者盲人怎么办?过去的这套公式就都没用了。
统计学的思路就很简单了。
两条路,不管是正常人、残疾人,还是自行车、汽车,都无所谓,统计数据就好了。左边这条路测算1万次,右边这条路测算1万次。
经过测试,左边赢了8000次,右边赢了2000次,结果就出来了。
选择左边这条路耗时更短!
应用在模糊照片的清晰化处理上,就是大数据下的统计学。
比如一个模糊化的鼻子,原始形象是什么样?
统计就好了。
选1万个不同种类的鼻子,然后进行模糊化处理。模糊化处理后的鼻子,哪个跟模糊照片中的鼻子点位重合最高,就是哪个。
不过,想实现这一点非常复杂。
只要是大数据,就一定会涉及算力的问题。想处理、统计这么多的数据,普通的