Слишком большой массив
решил проблему, задавая каждому объекту с анимацией свою переменную
double object_b[5][10000];
пробовал структуры
{
double U[2000];
double V[2000];
double X[2000];
double Y[2000];
double Z[2000];
} *object_a[100000];
object_a[1]->U[10]=10.200;
+100
Если возникает необходимость в подобных массивах - надо пересматривать алгоритм
ну да))) при выделении памяти через вектор, 130 лямов плюс программочка забивают 1 гиг оперативки, о размерах переменных я знал, но не догадывался что такими капельками можно так сильно заполнить океан оперативы.
во временный бинарный файл на диске тоже не запихнёшь (загружать с жёсткого диска несколько миллионов кординат, 30 раз в секунду глупо даже для меня), может, как-то стринги в этом случае можно использовать...
ну да))) при выделении памяти через вектор, 130 лямов плюс программочка забивают 1 гиг оперативки, о размерах переменных я знал, но не догадывался что такими капельками можно так сильно заполнить океан оперативы.
во временный бинарный файл на диске тоже не запихнёшь (загружать с жёсткого диска несколько миллионов кординат, 30 раз в секунду глупо даже для меня), может, как-то стринги в этом случае можно использовать...
не надо. надо всего навсего ознакомиться с тем, как это делают другие. Если своей думалки не хватает
нет. не пошутил.
Можешь привести пример игры (картографии, не важно) где это работает? Почти любой язык на таких массивах загнется и возопиит - смените пользователя!
А вообще, если ты спрашиваешь про картографический софт, где могут потребоваться такие объёмы памяти, то могу подсказать одну софтинку. Но там большие объёмы были необходимы только в момент кое-каких расчётов, которые потом закешировались и обновляются очень-очень-очень редко.
А вообще, если ты спрашиваешь про картографический софт, где могут потребоваться такие объёмы памяти, то могу подсказать одну софтинку. Но там большие объёмы были необходимы только в момент кое-каких расчётов, которые потом закешировались и обновляются очень-очень-очень редко.
и что - там это решалось выделением массивов на миллион объектов? Что-то сомневаюсь.
ну я вообщето не имею ввиду задачу ТС.
Любой граф - он зависит от задачи и цели - тут показатель не то, сколько считалась. И тем более это не показатель размера массива. Хотя да - некоторые задачи картторгфии требуют немалых массивов. Но в целом, это суют на отдельные машины - которые дают готовый результат.
Я точно не знаю, насколько был оптимизирован алгоритм, но предположил, что загрузка памяти, даже если и была оптимизирована в 122 раза, всё равно составит 1 млрд. записей, что очень много. И всё это добро было посчитано с использованием .NET. *_*