У меня есть база данных, которая должна поддерживать множество операций INSERT, UPDATE и DELETE. База данных хранит оперативные данные за последние 3 месяца. Объем данных огромен - размер базы данных составляет около 0,5 ТБ.
Каждый день я запускаю процесс, который архивирует данные старше 3 месяцев. Конечно, удаление данных не освободит полученное пространство. Чтобы освободить место на диске, мне нужно (авто) сжать базу данных. За этим, конечно же, следует (автоматический) рост, когда требуется больше места в базе данных.
С другой стороны, мы знаем, что сокращение базы данных — это зло! Одно из решений, которое пришло мне в голову, — это установить фиксированный размер моей базы данных с 0,5 ТБ до 0,8 ТБ или даже 0,9 ТБ или что-то еще, надеясь, что свободное место появится после архивирования данных (то есть удалить старые данные) будут повторно использоваться базой данных позже.
Может ли кто-нибудь подтвердить, что таким образом я могу избежать необходимости (авто) сжатия + (авто) роста? Конечно, мы предполагаем, что фиксированный размер достаточно велик.