的文档辨认方法》,他此时也是折腾出了深度学习模型。
这位家伙为了证实自己的示例在论文里面做出了以下声明——
要在gpu上运行这个示例,首先得有个性能良好的内存至少要1gb。假如显示器连着gpu,可能需要更多内存。当gpu和显示器相连时,每次gpu函数调用都有几秒钟的时限。这么做是必不可少的,由于目前的gpu在进行运算时无法持续为显示器服务。假如没有这个限制,显示器将会冻结太久,盘算机看上往像是逝世机了。若用中等质量的gpu处理这个示例,就会碰到超过期限的问题。gpu不连接显示器时就不存在这个时间限制。你可以降低批处理大小来解决超时问题。
杨杰前世的时候也是看过这篇论文,(本章未完,请翻页)