-
Notifications
You must be signed in to change notification settings - Fork 0
/
teste_precip.py
203 lines (177 loc) · 10.5 KB
/
teste_precip.py
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
import numpy as np
import pandas as pd
import datetime as dt
import csv
import psycopg2, psycopg2.extras
def coletar_dados(t_ini,t_fim,posto_codigo,sensores):
# Montagem do texto
t_ini_string = t_ini.strftime('%Y-%m-%d %H:%M')
t_fim_string = t_fim.strftime('%Y-%m-%d %H:%M')
texto_psql = "select hordatahora at time zone 'UTC' as hordatahora, \
horleitura, horsensor \
from horaria where hordatahora >= '{}' and hordatahora <= '{}' \
and horestacao in ({}) \
and horsensor in {} \
order by horestacao, horsensor, hordatahora; \
".format(t_ini_string, t_fim_string, posto_codigo,sensores)
# Execução da consulta no banco do Simepar
conn = psycopg2.connect(dbname='clim', user='hidro', password='hidrologia',
host='tornado', port='5432')
consulta = conn.cursor(cursor_factory = psycopg2.extras.DictCursor)
consulta.execute(texto_psql)
consulta_lista = consulta.fetchall()
df_consulta =pd.DataFrame(consulta_lista,columns=['tempo','valor','sensor'])
df_consulta.set_index('tempo', inplace=True)
return df_consulta
#Lista postos de precipitacao com as seguintes informacoes
# Nome : [codigo simepar, codigo ANA, latitude, longitute, altitude]
# postos_precip = {
# 'Aguas_do_Vere':['25465256', '2552056', '-25.7737', '-52.9329', '466'],
# 'Balsa_Jaracatia':['25345816', '2553066', '-25.5832', '-53.2668', '23'],
# 'Bituruna':['26065150', ' ', '-26.0639', '-51.5083', '720'],
# 'Boa_Vista_da_Aparecida':['25315021', '2553069', '-25.5225', '-53.3558', '367'],
# 'Cascavel':['24535333', '2453064', '-24.8845', '-53.5547', '719.3'],
# 'Coronel_Domingos_Soares':['25825217', ' ', '-26.03729', '-51.98156', '607'],
# 'Curitiba':['25264916', '2549101', '-25.44817', '-49.23033', '935'],
# 'Derivacao_do_Rio_Jordao':['25755210', '2557071', '-25.75922', '-52.10889', '689'],
# 'Divisa':['26055019', '2650026', '-26.0833', '-50.3166', '770'],
# 'Entre_Rios':['25335129', '2551072', '-25.5459', '-51.4884', '1095'],
# 'Fernandes_Pinheiro':['25275035', ' ', '-25.4532', '-50.5839', '893'],
# 'Fluviopolis':['26025035', '2650027', '-26.0333', '-50.5833', '770'],
# 'Foz_do_Areia_Hid':['26005139', '2651055', '-26.00639', '-51.66754', '728.2'],
# 'Foz_do_Areia_Met':['26055139', '2651053', '-26.0037', '-51.6679', '780'],
# 'Foz_do_Cachoeira':['26355045', '2650028', '-26.5833', '-50.75', '895'],
# 'Foz_do_Chopim':['25345306', ' ', '-25.5713', '-53.1135', '351'],
# 'Foz_do_Iguacu':['25245437', '2554036', '-25.4059', '-54.6167', '232'],
# 'Foz_do_Timbo':['26105047', '2650029', '-26.29452', '-50.89522', ' '],
# 'Fragosos':['26094923', '2649073', '-26.15', '-49.3833', ' '],
# 'Francisco_Beltrao':['26055305', ' ', '-26.0593', '-53.06548', '652'],
# 'Guarapuava':['25215130', '2551070', '-25.3845', '-51.4935', '1070'],
# 'Jangada':['26225115', '2651057', '-26.3666', '-51.25', '1046'],
# 'Lapa':['25474946', '2549104', '-25.7817', '-49.7598', '909.8'],
# 'Madeireira_Gavazzoni':['25485116', '2551054', '-25.80682', '-51.22884', '805'],
# 'Nova_Prata_do_Iguacu':['25345331', '2553063', '-25.5666', '-53.5166', '546.3'],
# 'Palmas':['26285158', ' ', '-26.4682', '-51.9762', '1100'],
# 'Palmital_do_Meio':['26025109', '2651056', '-26.02999', '-51.14149', '840'],
# 'Pato_Branco':['26075241', '2652042', '-26.1229', '-52.6514', '721.8'],
# 'Pinhais':['25254905', ' ', '-25.3907', '-49.1299', '930'],
# 'Pinhao':['25385157', '2551071', '-25.64944', '-51.9625', '910'],
# 'Ponta_Grossa':['25135001', '2550071', '-25.0137', '-50.1524', '888.25'],
# 'Pontilhao':['25555031', '2550070', '-25.9166', '-50.5166', ' '],
# 'Porto_Amazonas':['25334953', '2549106', '-25.55', '-49.8833', '780'],
# 'Porto_Capanema':['25345435', '2553070', '-25.6154', '-53.7923', '234'],
# 'Porto_Palmeirinha':['26015237', '2652048', '-26.0291', '-52.6283', '720'],
# 'Porto_Santo_Antonio':['25235306', '2553062', '-25.3833', '-53.1', '386'],
# 'Porto_Vitoria':['26105114', '2651058', '-26.1666', '-51.2333', '745'],
# 'Reservatorio_Salto_Caxias':['25325329', '2553068', '-25.5333', '-53.4833', '440'],
# 'Rio_Negro':['26064948', '2649074', '-26.1097', '-49.80194', '766'],
# 'Salto_Cataratas':['25415426', '2554035', '-25.6833', '-54.4333', '234'],
# 'Salto_Caxias_Hid':['25325330', '2553061', '-25.5333', '-53.5', '420'],
# 'Salto_Caxias_Met':['25315329', ' ', '-25.52092', '-53.49412', '440'],
# 'Salto_Osorio':['25315301', ' ', '-25.52213', '-53.03087', '514'],
# 'Santa_Cruz_do_Timbo':['26125049', '2650030', '-26.38392', '-50.87826', ' '],
# 'Sao_Bento':['25564947', '2549105', '-25.9333', '-49.7833', '799'],
# 'Sao_Mateus_do_Sul':['25525023', '2550069', '-25.87702', '-50.38755', '760'],
# 'Sao_Miguel_do_Iguacu':['25115408', '2554034', '-25.3528', '-54.2546', '298'],
# 'Segredo':['25475206', '2552057', '-25.7911', '-52.11895', '607'],
# 'Solais_Novo':['26055155', '2651054', '-26.0833', '-51.9166', '809'],
# 'Uniao_da_Vitoria_Hid':['26145104', '2651059', '-26.22772', '-51.08059', '749'],
# 'Uniao_da_Vitoria_Met':['26145103', '2651060', '-26.22825', '-51.06827', '756.53'],
# 'Vossoroca':['25494905', '2549102', '-25.8166', '-49.0833', '851'],
# }
posto_nome = 'Rio_Negro'
posto_codigo = '26064948'
posto_ana = '2649074'
posto_lat = '-26.1097'
posto_long = '-49.80194'
posto_alt = '766'
########## SERIES 15 MIN ##########
print('Coletando dados brutos',posto_nome)
t_ini = dt.datetime(1997, 1, 1, 0, 0) #AAAA, M, D, H, Min
t_fim = dt.datetime.now()
#coleta dados de precipitacao
dados = coletar_dados(t_ini,t_fim, posto_codigo, '(7)')
dados.columns = ['chuva_mm', 'sensor']
dados = dados.drop('sensor', 1)
#converte indice para formato DATETIME ISO UTC
dados.index = pd.to_datetime(dados.index, utc=True).rename('datahora')
dados["chuva_mm"] = pd.to_numeric(dados["chuva_mm"], downcast = "float")
########## TRATA SERIES 15 MIN ##########
#DADOS BRUTOS -> FLAG 0
#DADO BRUTO BAIXADO SEM VALOR -> FLAG 1
dados['flag'] = np.where(dados['chuva_mm'].isnull(), 1, 0)
# cria DFs padrão de data, para serem preenchidas com os dados baixados
t_ini = dados.index[0]
t_fim = dados.index[-1]
date_rng_15min = pd.date_range(start=t_ini, end=t_fim,freq='15min',tz="UTC")
table_15min = pd.DataFrame(date_rng_15min, columns=['datahora'])
table_15min['datahora']= pd.to_datetime(table_15min['datahora'])
table_15min = table_15min.set_index('datahora')
df_15min = pd.merge(table_15min, dados, how='left',
left_index=True, right_index=True)
df_15min = df_15min[~df_15min.index.duplicated(keep='first')]
#DATA SEM REGISTRO NA SERIE DE DADOS BRUTOS -> FLAG 2
df_15min['flag'] = np.where(df_15min['flag'].isnull(), 2, df_15min['flag'])
#SINALIZA A OCORRENCIA DE VALORES NEGATIVOS -> FLAG 3
#SINALIZA A OCORRENCIA DE VALORES SUPERIORES A 45 MM -> FLAG 3
#REMOVE VALORES DE COTA NEGATIVOS
df_15min['flag'] = np.where((df_15min['chuva_mm'] < 0), 3, df_15min['flag'])
df_15min['chuva_mm'] = np.where((df_15min['chuva_mm'] < 0
), np.nan, df_15min['chuva_mm'])
df_15min['flag'] = np.where((df_15min['chuva_mm'] >45), 3, df_15min['flag'])
df_15min['chuva_mm'] = np.where((df_15min['chuva_mm'] > 45
), np.nan, df_15min['chuva_mm'])
#SINALIZA PERSISTENCIA DE VALORES NAO NULOS -> FLAG 4
# H <= 2MM <- 6 HORAS = 24 REGISTROS
# H > 2MM <- 1 HORA = 4 REGISTROS
dados2 = df_15min.groupby((df_15min['chuva_mm'].
shift()!=df_15min['chuva_mm']).cumsum()
).filter(lambda x: len(x) >= 24)
dados2 = dados2[dados2['chuva_mm']>0]
dados2 = dados2[dados2['chuva_mm']<=2]
dados3 = df_15min.groupby((df_15min['chuva_mm'].
shift()!=df_15min['chuva_mm']).cumsum()
).filter(lambda x: len(x) >= 4)
dados3 = dados3[dados3['chuva_mm']>0]
dados3 = dados3[dados3['chuva_mm']>2]
df_15min['flag'] = np.where(df_15min.index.isin(dados2.index),
4, df_15min['flag'])
df_15min['flag'] = np.where(df_15min.index.isin(dados3.index),
4, df_15min['flag'])
df_15min['chuva_mm'] = np.where(df_15min.index.isin(dados2.index),
np.nan, df_15min['chuva_mm'])
df_15min['chuva_mm'] = np.where(df_15min.index.isin(dados3.index),
np.nan, df_15min['chuva_mm'])
#COLUNA FLAG PARA INTEIRO
df_15min['flag'] = df_15min['flag'].astype(int)
#df_15min.loc['2008-01-18':'2008-01-20'].to_csv('../dados/'+posto_nome+'_teste15min.csv', mode = 'a', sep = ",",
# date_format='%Y-%m-%dT%H:%M:%S+00:00', float_format='%.2f')
########## TRANSFORMA SERIE HORARIA ##########
df_15min.drop(['flag'], axis=1, inplace = True)
#cria DFs padrao horario para ser preenchido com os dados de 15 min
t_ini = df_15min.index[0].round('1h')
t_fim = df_15min.index[-1]
date_rng_horario = pd.date_range(start=t_ini, end=t_fim, freq='H', tz="UTC")
table_hor = pd.DataFrame(date_rng_horario, columns=['date'])
table_hor['datahora']= pd.to_datetime(table_hor['date'])
table_hor = table_hor.set_index('datahora')
table_hor.drop(['date'], axis=1, inplace = True)
# agrupa em dados horarios, com intervalo fechado à direita (acumulado/media da 0:01 a 1:00);
# coluna count resulta a soma (contagem) dos "1", coluna valor resulta na media dos valores;
# para os valores de cont < 4, substitui o dado em 'valor' por NaN:
df_15min['count'] = np.where(df_15min['chuva_mm'].notnull(), 1, 0)
df_horario = (df_15min.resample("H", closed='right', label='right').
agg({'count' : np.sum, 'chuva_mm' : np.sum}))
#df_horario.loc[df_horario['count'] < 4, ['q_m3s']] = np.nan
#df_horario.loc[df_horario['count'] < 4, ['m']] = np.nan
#REMOVE A OCORRENCIA DE VALORES HORARIOS SUPERIORES A 90 MM
df_horario['chuva_mm'] = np.where((df_horario['chuva_mm'] > 90
), np.nan, df_horario['chuva_mm'])
# remove colunas 'count' dos dataframes e agrupa com data padrao
df_horario.drop('count', axis=1, inplace=True)
table_hor = pd.merge(table_hor, df_horario, left_index = True,
right_index = True, how = 'left')
table_hor = table_hor[~table_hor.index.duplicated(keep='first')]
table_hor['status'] = '1'
print(posto_nome, ' acabou - ', list(postos_precip).index(posto_nome)+1,"/",
len(postos_precip))