File size: 10,017 Bytes
ca81ddd e6644f0 53691dd ca81ddd e6644f0 53691dd 01414bf 53691dd e6644f0 53691dd e6644f0 8bb2210 e6644f0 53691dd e6644f0 8bb2210 e6644f0 53691dd 8bb2210 e6644f0 53691dd e6644f0 ca81ddd 8bb2210 d50ead7 8bb2210 d50ead7 8bb2210 d50ead7 8bb2210 d50ead7 8bb2210 d50ead7 8bb2210 d50ead7 8bb2210 d50ead7 8bb2210 d50ead7 8bb2210 d50ead7 e6644f0 8bb2210 e6644f0 8bb2210 ca81ddd e6644f0 8bb2210 53691dd e6644f0 8bb2210 e6644f0 8bb2210 e6644f0 01414bf e6644f0 8bb2210 e6644f0 d50ead7 e6644f0 8bb2210 53691dd 8bb2210 53691dd 8bb2210 53691dd 8bb2210 01414bf d50ead7 01414bf 8bb2210 01414bf 8bb2210 53691dd e6644f0 53691dd e6644f0 24536e9 d50ead7 01414bf e6644f0 8bb2210 53691dd d50ead7 8bb2210 d50ead7 53691dd 8bb2210 74d77e7 53691dd 74d77e7 d50ead7 53691dd d50ead7 8bb2210 53691dd 74d77e7 53691dd 8bb2210 53691dd 8bb2210 d50ead7 8bb2210 53691dd 8bb2210 53691dd 5738fc6 d50ead7 53691dd 8bb2210 53691dd d50ead7 53691dd d50ead7 8bb2210 d50ead7 8bb2210 d50ead7 8bb2210 d50ead7 01414bf d50ead7 8bb2210 53691dd ca81ddd 9800633 ca81ddd 53691dd 8bb2210 5738fc6 ca81ddd 53691dd ca81ddd |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 |
import gradio as gr
import pandas as pd
import plotly.express as px
from prophet import Prophet
# Ссылки на CSV-файлы
URL_DASHA = "https://raw.githubusercontent.com/fruitpicker01/Storage_Dasha_2025/main/messages.csv"
URL_LERA = "https://raw.githubusercontent.com/fruitpicker01/Storage_Lera_2025/main/messages.csv"
URL_SVETA = "https://raw.githubusercontent.com/fruitpicker01/Storage_Sveta_2025/main/messages.csv"
def read_and_process_data(url, user_name):
"""
Возвращает:
1) unique_count: количество уникальных SMS (по gender, generation, industry, opf)
2) df_daily: дата, пользователь, дневное кол-во уникальных SMS (НЕ накопленное),
уже после удаления дубликатов по 4 столбцам.
"""
df = pd.read_csv(url, na_values=["Не выбрано"])
cols = ["gender", "generation", "industry", "opf", "timestamp"]
df = df[[c for c in cols if c in df.columns]].copy()
# Убираем дубликаты по ключевым столбцам
df_unique = df.drop_duplicates(subset=["gender", "generation", "industry", "opf"])
# Количество уникальных SMS
unique_count = len(df_unique)
# Преобразуем timestamp -> date
if "timestamp" in df_unique.columns:
df_unique["timestamp"] = pd.to_numeric(df_unique["timestamp"], errors='coerce')
df_unique["date"] = pd.to_datetime(df_unique["timestamp"], unit="s", origin="unix", errors='coerce').dt.date
else:
df_unique["date"] = pd.NaT
# Сгруппируем по дате, чтобы получить кол-во за каждый день
df_daily = df_unique.groupby("date").size().reset_index(name="count")
df_daily["user"] = user_name
return unique_count, df_daily
def make_average_forecast(total_by_date, end_date_str="2025-02-28"):
"""
Строит «прогноз по среднему» до указанной даты (end_date_str),
считая средний дневной прирост (по всем дням, без исключения выходных).
Возвращает DataFrame с колонками ["ds", "yhat"],
начиная с (last_date+1) по end_date_str (включительно).
"""
if total_by_date.empty:
return pd.DataFrame(columns=["ds", "yhat"])
df_tmp = total_by_date.copy()
df_tmp["date"] = pd.to_datetime(df_tmp["date"])
# Средний дневной прирост (столбец "count") по всем дням
avg_inc = df_tmp["count"].mean() if len(df_tmp) else 0
last_date = df_tmp["date"].max()
last_cumulative = df_tmp["cumulative"].iloc[-1]
end_date = pd.to_datetime(end_date_str)
# Движемся по календарю день за днём
current_date = last_date
forecast_data = []
running_total = last_cumulative
while current_date < end_date:
current_date += pd.Timedelta(days=1)
if current_date > end_date:
break
# Прибавляем средний прирост независимо от выходного или буднего дня
running_total += avg_inc
forecast_data.append({"ds": current_date, "yhat": running_total})
return pd.DataFrame(forecast_data)
def process_data():
# Шаг 1: Считываем CSV по каждому репозиторию (Даша, Лера, Света)
dasha_count, dasha_daily = read_and_process_data(URL_DASHA, "Даша")
lera_count, lera_daily = read_and_process_data(URL_LERA, "Лера")
sveta_count, sveta_daily = read_and_process_data(URL_SVETA, "Света")
# Сумма
total_count = dasha_count + lera_count + sveta_count
# Подсчитываем проценты
dasha_percent = round((dasha_count / 234) * 100) if 234 else 0
lera_percent = round((lera_count / 234) * 100) if 234 else 0
sveta_percent = round((sveta_count / 234) * 100) if 234 else 0
total_percent = round((total_count / 702) * 100) if 702 else 0
# Генерируем HTML для прогресс-баров
def get_progress_bar(label, abs_val, pct):
capacity = 234 if label in ["Даша", "Лера", "Света"] else 702
return f"""
<div style='margin-bottom: 1em;'>
<div><strong>{label}</strong></div>
<div style='width: 100%; background-color: #ddd; text-align: left;'>
<div style='width: {pct}%; background-color: #4CAF50; padding: 5px 0;'>
{abs_val} SMS ({pct}% из {capacity})
</div>
</div>
</div>
"""
bars_html = (
get_progress_bar("Даша", dasha_count, dasha_percent) +
get_progress_bar("Лера", lera_count, lera_percent) +
get_progress_bar("Света", sveta_count, sveta_percent) +
get_progress_bar("Всего", total_count, total_percent)
)
# Шаг 2: Готовим общий датафрейм по датам
daily_all = pd.concat([dasha_daily, lera_daily, sveta_daily], ignore_index=True)
daily_all = daily_all.dropna(subset=["date"]) # убираем NaT
# Считаем кумулятивное значение для каждого пользователя
daily_all = daily_all.sort_values(by=["user", "date"])
daily_all["cumulative"] = daily_all.groupby("user")["count"].cumsum()
# «Всего»
total_by_date = daily_all.groupby("date")["count"].sum().reset_index(name="count")
total_by_date = total_by_date.sort_values(by="date")
total_by_date["cumulative"] = total_by_date["count"].cumsum()
total_by_date["user"] = "Всего"
# Объединяем
daily_all_final = pd.concat([daily_all, total_by_date], ignore_index=True)
# Сортируем легенду: у кого итог больше, тот сверху
last_values = daily_all_final.groupby("user")["cumulative"].last().sort_values(ascending=False)
sorted_users = last_values.index.tolist()
color_map = {
"Даша": "#1f77b4",
"Лера": "#2ca02c",
"Света": "#d62728",
"Всего": "#9467bd"
}
# Строим накопительный график
fig = px.line(
daily_all_final,
x="date",
y="cumulative",
color="user",
title="Накопительное количество SMS",
labels={"date": "Дата", "cumulative": "Накопленное количество SMS", "user": "Редактор"},
category_orders={"user": sorted_users},
color_discrete_map=color_map
)
# Шаг 3: Два прогноза
forecast_fig = None
# Если есть данные "Всего", делаем прогноз
if not total_by_date.empty:
df_prophet = total_by_date[["date", "cumulative"]].copy()
df_prophet.columns = ["ds", "y"]
df_prophet["ds"] = pd.to_datetime(df_prophet["ds"])
# Прогноз Prophet
model = Prophet()
model.fit(df_prophet)
end_date = pd.to_datetime("2025-02-28")
last_date = df_prophet["ds"].max()
additional_days = (end_date - last_date).days
future = model.make_future_dataframe(periods=0) # если уже после
if additional_days > 0:
future = model.make_future_dataframe(periods=additional_days)
forecast = model.predict(future)
# Совмещаем
df_plot = pd.merge(
forecast[["ds", "yhat"]],
df_prophet[["ds", "y"]],
on="ds",
how="left"
)
df_history = df_plot.dropna(subset=["y"])
df_future = df_plot[df_plot["y"].isna()]
# Прогноз по среднему (без учёта выходных — т. е. на каждый календарный день)
df_avg = make_average_forecast(total_by_date, "2025-02-28")
# Общий график для сравнения
forecast_fig = px.line(
df_history,
x="ds",
y="y",
title="Прогноз до конца февраля 2025 (всего)",
labels={"ds": "Дата", "y": "Накопленное число SMS"}
)
# Prophet-пунктир
forecast_fig.add_scatter(
x=df_future["ds"],
y=df_future["yhat"],
mode="lines",
name="Прогноз (Prophet)",
line=dict(dash="dash", color="red")
)
# Средний-пунктир
if not df_avg.empty:
forecast_fig.add_scatter(
x=df_avg["ds"],
y=df_avg["yhat"],
mode="lines",
name="Прогноз (по среднему)",
line=dict(dash="dash", color="green")
)
forecast_fig.update_layout(showlegend=True)
# Возвращаем всё в Gradio
return (bars_html, fig, forecast_fig)
with gr.Blocks() as demo:
gr.Markdown("<h2>Количество сохраненных SMS (Даша, Лера, Света)</h2>")
btn = gr.Button("Обновить данные и показать результат")
html_output = gr.HTML(label="Прогресс-бары: количество SMS и %")
plot_output = gr.Plot(label="Накопительный график (Даша, Лера, Света, Всего)")
forecast_output = gr.Plot(label="Прогноз до конца февраля 2025 (всего)")
btn.click(fn=process_data, outputs=[html_output, plot_output, forecast_output])
if __name__ == "__main__":
demo.launch() |