输入数据维数太大,求助解决办法
现在要输入10950个文件,每个文件是大约1000*800的图像矩阵,这样的数据共计7组,作为数组输入时维数太大,导致出错!使用(double*) malloc(N * sizeof(double))))
分配时当N超过438000000时也会出错,而10950*1000*800=8760000000,求高手指点!谢谢!!!
[解决办法]
内存映射。
[解决办法]
那就一个文件处理完再处理下一个文件。
[解决办法]
还是听7楼的,一个一个处理,分别保存在硬盘,或者一下处理若干,再接着生成图片,这个根据机器测试一下哪个效率高,这么大的量,单个进程中空间是不够用的,不是说你的内存条多就行的,还得操作系统支持,并会分配给你足够大的空间。参见:
http://bbs.51cto.com/thread-453371-1.html
使用map file可以提高执行的效率也考虑,并减少空间申请的错误,不过我用的不熟。楼主可以试试!