Создание сводной статистики из счетчиков трафика с временными метками

Я собираю информацию о трафике для особого случая использования, когда у меня есть ок. каждые 10 минут (но не точно) значение счетчика трафика с отметкой времени, например:

11:45 100
11:56 110
12:05 120
12:18 130
...

Это данные, которые у меня есть, и я не могу их улучшить.

Я хотел бы получить какую-то почасовую/ежедневную статистику из этого ввода, не могли бы вы предложить какие-то готовые функции или алгоритмы в python?

Я думаю о том, чтобы объединить счетчики с отметками времени в часы и взять первую отметку времени для часа по сравнению с последней и показать разницу в потоке трафика в данный час, однако, поскольку это может начинаться не точно с часа (например, с приведенного выше данные, он начинается с 120 @ 12:05), это может быть совсем не так, и было бы неплохо также пропорционально включить предыдущие данные (например, ((120-110)/9)*5). Однако я не хочу изобретать велосипед.

-- ОБНОВИТЬ --

Основываясь на приведенных ниже предложениях, я изучил pandas и создал код ниже. В качестве пояснения к написанному выше фону, значения с метками времени относятся ко второму уровню и распределяются неравномерно в пределах минуты (например, 11:45:03, 11:56:34 и т. д.). Таким образом, приведенный ниже код берет входные данные, переиндексирует их на второй уровень, выполняет линейную интерполяцию (при условии, что трафик равномерно распределяется между точками измерения), вырезает первую и последнюю дробные минуты (так что, если 1-я точка данных находится в 11:45 :03, не искажается из-за отсутствия первых 3 секунд) и передискретизирует данные второго уровня до минутного уровня. Теперь это работает, как и ожидалось, однако это очень медленно, я думаю, из-за интерполяции второго уровня, поскольку данные в целом охватывают несколько месяцев. Есть идеи по дальнейшему улучшению или ускорению кода?

import datetime
import pandas as pd
import numpy as np
import math

COLUMNS = ['date', 'lan_in', 'inet_in', 'lan_out', 'inet_out']

ts_converter = lambda x: datetime.datetime.fromtimestamp(int(x))
td = pd.read_table("traffic_log",
                   names = COLUMNS,
                   delim_whitespace = True,
                   header = None,
                   converters = { 'date' : ts_converter }).set_index('date')

# reindex to second-level data
td = td.reindex(pd.date_range(min(td.index), max(td.index), freq="s"))
# linear interpolation to fill data for all seconds
td = td.apply(pd.Series.interpolate)
# cut first and last fractional minute data
td = td[pd.Timestamp(long(math.ceil(td.index.min().value/(1e9*60))*1e9*60)):
        pd.Timestamp(long(math.floor(td.index.max().value/(1e9*60))*1e9*60))]
# resample to minute-level taking the minimum value for each minute
td = td.resample("t", how="min")
# change absolute values to differences
td = td.apply(pd.Series.diff)
# create daily statistics in gigabytes
ds = td.resample("d", how="sum").apply(lambda v: v/1024/1024/1024)
# create speed columns
for i in COLUMNS[1:]:
    td[i+'_speed'] = td[i] / 60 / 1024

person abali    schedule 10.12.2013    source источник
comment
Используйте pandas.pydata.org.   -  person YXD    schedule 10.12.2013


Ответы (1)


Если я правильно понял вашу проблему, возможно, это поможет:

df = pd.DataFrame( [ ['11:45', 100 ], ['11:56', 110], ['12:05', 120], ['12:18', 130]], 
                   columns=['tick', 'val'] )
df.tick = df.tick.map ( pd.Timestamp )

поэтому df выглядит так:

                 tick  val
0 2013-12-10 11:45:00  100
1 2013-12-10 11:56:00  110
2 2013-12-10 12:05:00  120
3 2013-12-10 12:18:00  130

теперь вы можете вычислить длину каждого интервала и найти среднее значение за час:

df[ 'period' ] = df.tick - df.tick.shift( 1 )
df.period = df.period.div( np.timedelta64( '1', 'h' ) )
df[ 'chval' ] = df.val - df.val.shift( 1 )
df[ 'havg' ] = df.chval / df.period  

выход:

                 tick  val  period  chval     havg
0 2013-12-10 11:45:00  100     NaN    NaN      NaN
1 2013-12-10 11:56:00  110  0.1833     10  54.5455
2 2013-12-10 12:05:00  120  0.1500     10  66.6667
3 2013-12-10 12:18:00  130  0.2167     10  46.1538

чтобы принять во внимание, что некоторые периоды охватывают более одного часа, я думаю, что одним из решений является изменение частоты на минуту, обратное заполнение всех значений nan, а затем ежечасная повторная выборка со средним расчетом:

df = df.set_index( 'tick' ).asfreq( freq='T', method='bfill' )
df = df.shift( -1 ).resample( 'h', how='mean' ) 

выход:

                          val  period  chval     havg
2013-12-10 11:00:00  112.6667  0.1744     10  57.7778
2013-12-10 12:00:00  127.2222  0.1981     10  51.8519

теперь я думаю, что значения havg верны, так как

( 10 + 10 * 4 / 9 ) / 15 * 60 = 57.7778
(      10 * 5 / 9 + 10 ) / 18 * 60 = 51.8519
person behzad.nouri    schedule 10.12.2013
comment
Спасибо, это выглядит нормально, но помимо скорости мне также потребуется сумма трафика, т. е. я должен преобразовать этот набор данных в обычный набор данных минутного уровня, имеющий, например, точку в 12:00 со значением 110+10*4/9 (при условии равномерное распределение скорости в пределах интервала измерения), как мне это сделать? - person abali; 10.12.2013
comment
@abali, это интерполяция, см. это - person behzad.nouri; 10.12.2013
comment
Спасибо, это работает, но очень медленно - я отредактировал вопрос с обновлением, любые дальнейшие предложения приветствуются. - person abali; 11.12.2013