В настоящее время я работаю над заданием, которое касается Big-O и времени выполнения. Мне представили один вопрос, который кажется очень простым, но я не уверен, правильно ли я это делаю. Остальные проблемы были довольно сложными, и я чувствую, что здесь что-то упускаю из виду.
Во-первых, у вас есть следующие вещи: Алгоритм A, время работы которого составляет 50n^3. Компьютер A, который имеет скорость 1 мс на операцию. Компьютер B, который имеет скорость 2 миллисекунды на операцию. Экземпляр размера 300.
Я хочу узнать, сколько времени потребуется алгоритму А для решения этого примера на компьютере А и сколько времени это займет на компьютере Б.
То, что я хочу сделать, это меньше 300 для n, поэтому у вас есть 50 * (300 ^ 2) = 4500000.
Затем умножьте это на 1 для первого компьютера и на 2 для второго компьютера.
Однако мне это кажется странным, потому что там говорится, что «время работы» равно 50n^3, а не «количество операций равно 50n^3», поэтому у меня возникает ощущение, что я умножаю время на время, и заканчиваются единицами миллисекунд в квадрате, что совсем не кажется правильным.
Я хотел бы знать, прав ли я, а если нет, то что на самом деле означает вопрос.