Я в основном создаю 10 случайных массивов размером: 8000,16000,32000,64000,128000,256000
Я имею в виду, что у меня есть 10 массивов размером 8000, 10 массивов размером 16000 и т. д.
Все они заполнены случайными числами в диапазоне от 0 до размера массива.
У меня есть реализация для сортировки оболочки:
public static void sortMyArray(int[] a){
for (int gap = a.length / 2; gap > 0; gap = (gap / 2)) {
for (int i = gap; i < a.length; i++) {
int tmp = a[i];
int j = i;
for (; j >= gap && tmp < (a[j - gap]); j -= gap) {
a[j] = a[j - gap];
}
a[j] = tmp;
}
}
}
Когда зазор зазор = a.length / a. length у меня просто сортировка вставками. Вот время сортировки этих массивов:
Number of Elements Milliseconds
8000 13
16000 53
32000 217
64000 828
128000 3311
256000 13352
Так что это примерно O (N ^ 2). Когда количество элементов удваивается, время решения увеличивается почти в 4 раза.
Однако, когда я использую gap = a.length/2, я получаю такие значения, как:
Number of Elements Milliseconds
8000 2
16000 2
32000 4
64000 10
128000 25
256000 60
Так что это даже лучше, чем O(N), я думаю? Как это возможно? Я пробовал выключать процессоры из Windows и пробовал запускать компьютер только на 1 процессоре, однако значения все равно были нелогичными.
Вот мой полный код, если вам интересно:
int[] arraySizes = new int[]{8000,16000,32000,64000,128000,256000};
Random rn = new Random(1);
for(int i=0;i<arraySizes.length;i++){
int[] arrayToBeSorted = new int[arraySizes[i]];
System.out.println("Solving array with: " + arraySizes[i] + " elements with first sorting algorithm.");
for (int c = 0; c < 10; c++) {
for(int t=0;t<arraySizes[i];t++){
int randomNumber = rn.nextInt(arrayToBeSorted.length);
arrayToBeSorted[t] = randomNumber;
}
Long initialTime = (new Date().getTime());
sortMyArray(arrayToBeSorted);
Long finalTime = (new Date().getTime());
System.out.println("Time in milliseconds:" + (finalTime - initialTime));
}
}