**日期**: 2025-07-18 **主题**: 模型保存逻辑重构与集中化管理 ### 目标 根据 `xz训练模型保存规则.md`,将系统中分散的模型文件保存逻辑统一重构,创建一个集中、健壮且可测试的路径管理系统。 ### 核心成果 1. **创建了 `server/utils/file_save.py` 模块**: 这个新模块现在是系统中处理模型文件保存路径的唯一权威来源。 2. **实现了三种训练模式的路径生成**: 系统现在可以为“按店铺”、“按药品”和“全局”三种训练模式正确生成层级化的、可追溯的目录结构。 3. **集成了智能ID处理**: * 对于包含**多个ID**的训练场景,系统会自动计算一个简短的哈希值作为目录名。 * 对于全局训练中只包含**单个店铺或药品ID**的场景,系统会直接使用该ID作为目录名,增强了路径的可读性。 4. **重构了整个训练流程**: 修改了API层、进程管理层以及所有模型训练器,使它们能够协同使用新的路径管理模块。 5. **添加了自动化测试**: 创建了 `test/test_file_save_logic.py` 脚本,用于验证所有路径生成和版本管理逻辑的正确性。 ### 详细文件修改记录 1. **`server/utils/file_save.py`** * **操作**: 创建 * **内容**: 实现了 `ModelPathManager` 类,包含以下核心方法: * `_hash_ids`: 对ID列表进行排序和哈希。 * `_generate_identifier`: 根据训练模式和参数生成唯一的模型标识符。 * `get_next_version` / `save_version_info`: 线程安全地管理 `versions.json` 文件,实现版本号的获取和更新。 * `get_model_paths`: 作为主入口,协调以上方法,生成包含所有产物路径的字典。 2. **`server/api.py`** * **操作**: 修改 * **位置**: `start_training` 函数 (`/api/training` 端点)。 * **内容**: * 导入并实例化 `ModelPathManager`。 * 在接收到训练请求后,调用 `path_manager.get_model_paths()` 来获取所有路径信息。 * 将获取到的 `path_info` 字典和原始请求参数 `training_params` 一并传递给后台训练任务管理器。 * 修复了因重复传递关键字参数 (`model_type`, `training_mode`) 导致的 `TypeError`。 * 修复了 `except` 块中因未导入 `traceback` 模块导致的 `UnboundLocalError`。 3. **`server/utils/training_process_manager.py`** * **操作**: 修改 * **内容**: * 修改 `submit_task` 方法,使其能接收 `training_params` 和 `path_info` 字典。 * 在 `TrainingTask` 数据类中增加了 `path_info` 字段来存储路径信息。 * 在 `TrainingWorker` 中,将 `path_info` 传递给实际的训练函数。 * 在 `_monitor_results` 方法中,当任务成功完成时,调用 `path_manager.save_version_info` 来更新 `versions.json`,完成版本管理的闭环。 4. **所有训练器文件** (`mlstm_trainer.py`, `kan_trainer.py`, `tcn_trainer.py`, `transformer_trainer.py`) * **操作**: 修改 * **内容**: * 统一修改了主训练函数的签名,增加了 `path_info=None` 参数。 * 移除了所有内部手动构建文件路径的逻辑。 * 所有保存操作(最终模型、检查点、损失曲线图)现在都直接从传入的 `path_info` 字典中获取预先生成好的路径。 * 简化了 `save_checkpoint` 辅助函数,使其也依赖 `path_info`。 5. **`test/test_file_save_logic.py`** * **操作**: 创建 * **内容**: * 编写了一个独立的测试脚本,用于验证 `ModelPathManager` 的所有功能。 * 覆盖了所有训练模式及其子场景(包括单ID和多ID哈希)。 * 测试了版本号的正确递增和 `versions.json` 的写入。 * 修复了测试脚本中因绝对/相对路径不匹配和重复关键字参数导致的多个 `AssertionError` 和 `TypeError`。 --- **日期**: 2025-07-18 (后续修复) **主题**: 修复API层调用路径管理器时的 `TypeError` ### 问题描述 在完成所有重构和测试后,实际运行API时,`POST /api/training` 端点在调用 `path_manager.get_model_paths` 时崩溃,并抛出 `TypeError: get_model_paths() got multiple values for keyword argument 'training_mode'`。 ### 根本原因 这是一个回归错误。在修复测试脚本 `test_file_save_logic.py` 中的类似问题时,我未能将相同的修复逻辑应用回 `server/api.py`。代码在调用 `get_model_paths` 时,既通过关键字参数 `training_mode=...` 明确传递了该参数,又通过 `**data` 将其再次传入,导致了冲突。 ### 解决方案 1. **文件**: `server/api.py` 2. **位置**: `start_training` 函数。 3. **操作**: 修改了对 `get_model_paths` 的调用逻辑。 4. **内容**: ```python # 移除 model_type 和 training_mode 以避免重复关键字参数错误 data_for_path = data.copy() data_for_path.pop('model_type', None) data_for_path.pop('training_mode', None) path_info = path_manager.get_model_paths( training_mode=training_mode, model_type=model_type, **data_for_path # 传递剩余的payload ) ``` 5. **原因**: 在通过 `**` 解包传递参数之前,先从字典副本中移除了所有会被明确指定的关键字参数,从而确保了函数调用签名的正确性。 --- **日期**: 2025-07-18 (最终修复) **主题**: 修复因中间层函数签名未更新导致的 `TypeError` ### 问题描述 在完成所有重构后,实际运行API并触发训练任务时,程序在后台进程中因 `TypeError: train_model() got an unexpected keyword argument 'path_info'` 而崩溃。 ### 根本原因 这是一个典型的“中间人”遗漏错误。我成功地修改了调用链的两端(`api.py` -> `training_process_manager.py` 和 `*_trainer.py`),但忘记了修改它们之间的中间层——`server/core/predictor.py` 中的 `train_model` 方法。`training_process_manager` 尝试将 `path_info` 传递给 `predictor.train_model`,但后者的函数签名中并未包含这个新参数,导致了 `TypeError`。 ### 解决方案 1. **文件**: `server/core/predictor.py` 2. **位置**: `train_model` 函数的定义处。 3. **操作**: 在函数签名中增加了 `path_info=None` 参数。 4. **内容**: ```python def train_model(self, ..., progress_callback=None, path_info=None): # ... ``` 5. **位置**: `train_model` 函数内部,对所有具体训练器(`train_product_model_with_mlstm`, `_with_kan`, etc.)的调用处。 6. **操作**: 在所有调用中,将接收到的 `path_info` 参数透传下去。 7. **内容**: ```python # ... metrics = train_product_model_with_transformer( ..., path_info=path_info ) # ... ``` 8. **原因**: 通过在中间层函数上“打通”`path_info` 参数的传递通道,确保了从API层到最终训练器层的完整数据流,解决了 `TypeError`。 --- **日期**: 2025-07-18 (最终修复) **主题**: 修复“按药品训练-聚合所有店铺”模式下的路径生成错误 ### 问题描述 在实际运行中发现,当进行“按药品训练”并选择“聚合所有店铺”时,生成的模型保存路径中包含了错误的后缀 `_None`,而不是预期的 `_all` (例如 `.../17002608_None/...`)。 ### 根本原因 在 `server/utils/file_save.py` 的 `_generate_identifier` 和 `get_model_paths` 方法中,当 `store_id` 从前端传来为 `None` 时,代码 `scope = store_id if store_id else 'all'` 会因为 `store_id` 是 `None` 而正确地将 `scope` 设为 `'all'`。然而,在 `get_model_paths` 方法中,我错误地使用了 `kwargs.get('store_id', 'all')`,这在 `store_id` 键存在但值为 `None` 时,仍然会返回 `None`,导致了路径拼接错误。 ### 解决方案 1. **文件**: `server/utils/file_save.py` 2. **位置**: `_generate_identifier` 和 `get_model_paths` 方法中处理 `product` 训练模式的部分。 3. **操作**: 将逻辑从 `scope = kwargs.get('store_id', 'all')` 修改为更严谨的 `scope = store_id if store_id is not None else 'all'`。 4. **内容**: ```python # in _generate_identifier scope = store_id if store_id is not None else 'all' # in get_model_paths store_id = kwargs.get('store_id') scope = store_id if store_id is not None else 'all' scope_folder = f"{product_id}_{scope}" ``` 5. **原因**: 这种写法能正确处理 `store_id` 键不存在、或键存在但值为 `None` 的两种情况,确保在这两种情况下 `scope` 都被正确地设置为 `'all'`,从而生成符合规范的路径。 --- **日期**: 2025-07-18 (最终修复) **主题**: 修复 `KeyError: 'price'` 和单ID哈希错误 ### 问题描述 在完成大规模重构后,实际运行时发现了两个隐藏的bug: 1. 在“按店铺训练”模式下,训练因 `KeyError: 'price'` 而失败。 2. 在“按店铺训练”模式下,当只选择一个“指定药品”时,系统仍然错误地对该药品的ID进行了哈希处理,而不是直接使用ID。 ### 根本原因 1. **`KeyError`**: `server/utils/multi_store_data_utils.py` 中的 `get_store_product_sales_data` 函数包含了一个硬编码的列校验,该校验要求 `price` 列必须存在,但这与当前的数据源不符。 2. **哈希错误**: `server/utils/file_save.py` 中的 `get_model_paths` 方法在处理 `store` 训练模式时,没有复用 `_generate_identifier` 中已经写好的单ID判断逻辑,导致了逻辑不一致。 ### 解决方案 1. **修复 `KeyError`**: * **文件**: `server/utils/multi_store_data_utils.py` * **位置**: `get_store_product_sales_data` 函数。 * **操作**: 从 `required_columns` 列表中移除了 `'price'`,根除了这个硬性依赖。 2. **修复哈希逻辑**: * **文件**: `server/utils/file_save.py` * **位置**: `_generate_identifier` 和 `get_model_paths` 方法中处理 `store` 训练模式的部分。 * **操作**: 统一了逻辑,确保在这两个地方都使用了 `scope = product_ids[0] if len(product_ids) == 1 else self._hash_ids(product_ids)` 的判断,从而在只选择一个药品时直接使用其ID。 3. **更新测试**: * **文件**: `test/test_file_save_logic.py` * **操作**: 增加了新的测试用例,专门验证“按店铺训练-单个指定药品”场景下的路径生成是否正确。 --- **日期**: 2025-07-18 (最终修复) **主题**: 修复全局训练范围值不匹配导致的 `ValueError` ### 问题描述 在完成所有重构后,实际运行API并触发“全局训练-所有店铺所有药品”时,程序因 `ValueError: 未知的全局训练范围: all_stores_all_products` 而崩溃。 ### 根本原因 前端传递的 `training_scope` 值为 `all_stores_all_products`,而 `server/utils/file_save.py` 中的 `_generate_identifier` 和 `get_model_paths` 方法只处理了 `all` 这个值,未能兼容前端传递的具体字符串,导致逻辑判断失败。 ### 解决方案 1. **文件**: `server/utils/file_save.py` 2. **位置**: `_generate_identifier` 和 `get_model_paths` 方法中处理 `global` 训练模式的部分。 3. **操作**: 将逻辑判断从 `if training_scope == 'all':` 修改为 `if training_scope in ['all', 'all_stores_all_products']:`。 4. **原因**: 使代码能够同时兼容两种表示“所有范围”的字符串,确保了前端请求的正确处理。 5. **更新测试**: * **文件**: `test/test_file_save_logic.py` * **操作**: 增加了新的测试用例,专门验证 `training_scope` 为 `all_stores_all_products` 时的路径生成是否正确。 --- **日期**: 2025-07-18 (最终优化) **主题**: 优化全局训练自定义模式下的单ID路径生成 ### 问题描述 根据用户反馈,希望在全局训练的“自定义范围”模式下,如果只选择单个店铺和/或单个药品,路径中应直接使用ID而不是哈希值,以增强可读性。 ### 解决方案 1. **文件**: `server/utils/file_save.py` 2. **位置**: `_generate_identifier` 和 `get_model_paths` 方法中处理 `global` 训练模式 `custom` 范围的部分。 3. **操作**: 为 `store_ids` 和 `product_ids` 分别增加了单ID判断逻辑。 4. **内容**: ```python # in _generate_identifier s_id = store_ids[0] if len(store_ids) == 1 else self._hash_ids(store_ids) p_id = product_ids[0] if len(product_ids) == 1 else self._hash_ids(product_ids) scope_part = f"custom_s_{s_id}_p_{p_id}" # in get_model_paths store_ids = kwargs.get('store_ids', []) product_ids = kwargs.get('product_ids', []) s_id = store_ids[0] if len(store_ids) == 1 else self._hash_ids(store_ids) p_id = product_ids[0] if len(product_ids) == 1 else self._hash_ids(product_ids) scope_parts.extend(['custom', s_id, p_id]) ``` 5. **原因**: 使 `custom` 模式下的路径生成逻辑与 `selected_stores` 和 `selected_products` 模式保持一致,在只选择一个ID时优先使用ID本身,提高了路径的可读性和一致性。 6. **更新测试**: * **文件**: `test/test_file_save_logic.py` * **操作**: 增加了新的测试用例,专门验证“全局训练-自定义范围-单ID”场景下的路径生成是否正确。
551 lines
22 KiB
Python
551 lines
22 KiB
Python
"""
|
||
药店销售预测系统 - 核心预测器类
|
||
支持多店铺销售预测功能
|
||
"""
|
||
|
||
import os
|
||
import pandas as pd
|
||
import numpy as np
|
||
import torch
|
||
import time
|
||
import matplotlib.pyplot as plt
|
||
from datetime import datetime
|
||
|
||
from trainers import (
|
||
train_product_model_with_mlstm,
|
||
train_product_model_with_kan,
|
||
train_product_model_with_tcn,
|
||
train_product_model_with_transformer
|
||
)
|
||
from predictors.model_predictor import load_model_and_predict
|
||
from utils.data_utils import prepare_data, prepare_sequences
|
||
from utils.multi_store_data_utils import (
|
||
load_multi_store_data,
|
||
get_store_product_sales_data,
|
||
aggregate_multi_store_data
|
||
)
|
||
from analysis.metrics import evaluate_model
|
||
from core.config import DEVICE, DEFAULT_MODEL_DIR, DEFAULT_DATA_PATH
|
||
|
||
class PharmacyPredictor:
|
||
"""
|
||
药店销售预测系统核心类,用于训练模型和进行预测
|
||
"""
|
||
def __init__(self, data_path=None, model_dir=DEFAULT_MODEL_DIR):
|
||
"""
|
||
初始化预测器
|
||
|
||
参数:
|
||
data_path: 数据文件路径,默认使用多店铺CSV文件
|
||
model_dir: 模型保存目录
|
||
"""
|
||
# 设置默认数据路径为多店铺CSV文件
|
||
if data_path is None:
|
||
data_path = DEFAULT_DATA_PATH
|
||
|
||
self.data_path = data_path
|
||
self.model_dir = model_dir
|
||
self.device = DEVICE
|
||
|
||
if not os.path.exists(model_dir):
|
||
os.makedirs(model_dir)
|
||
|
||
print(f"使用设备: {self.device}")
|
||
|
||
# 尝试加载多店铺数据
|
||
try:
|
||
self.data = load_multi_store_data(data_path)
|
||
print(f"已加载多店铺数据,来源: {data_path}")
|
||
except Exception as e:
|
||
print(f"加载数据失败: {e}")
|
||
self.data = None
|
||
|
||
def train_model(self, product_id, model_type='transformer', epochs=100, batch_size=32,
|
||
learning_rate=0.001, sequence_length=30, forecast_horizon=7,
|
||
hidden_size=64, num_layers=2, dropout=0.1, use_optimized=False,
|
||
store_id=None, training_mode='product', aggregation_method='sum',
|
||
socketio=None, task_id=None, version=None, continue_training=False,
|
||
progress_callback=None, path_info=None):
|
||
"""
|
||
训练预测模型 - 支持多店铺训练
|
||
|
||
参数:
|
||
product_id: 产品ID
|
||
model_type: 模型类型 ('transformer', 'mlstm', 'kan', 'tcn', 'optimized_kan')
|
||
epochs: 训练轮次
|
||
batch_size: 批次大小
|
||
learning_rate: 学习率
|
||
sequence_length: 输入序列长度
|
||
forecast_horizon: 预测天数
|
||
hidden_size: 隐藏层大小
|
||
num_layers: 层数
|
||
dropout: Dropout比例
|
||
use_optimized: 是否使用优化版KAN(仅当model_type为'kan'时有效)
|
||
store_id: 店铺ID(仅当training_mode为'store'时使用)
|
||
training_mode: 训练模式 ('product', 'store', 'global')
|
||
aggregation_method: 聚合方法 ('sum', 'mean', 'median') - 仅用于全局训练
|
||
|
||
返回:
|
||
metrics: 模型评估指标
|
||
"""
|
||
# 创建统一的输出函数
|
||
def log_message(message, log_type='info'):
|
||
"""统一的日志输出函数"""
|
||
print(message, flush=True) # 始终输出到控制台
|
||
|
||
# 如果有进度回调,也发送到回调
|
||
if progress_callback:
|
||
try:
|
||
progress_callback({
|
||
'log_type': log_type,
|
||
'message': message
|
||
})
|
||
except Exception as e:
|
||
print(f"进度回调失败: {e}", flush=True)
|
||
|
||
if self.data is None:
|
||
log_message("没有可用的数据,请先加载或生成数据", 'error')
|
||
return None
|
||
|
||
# 根据训练模式准备数据
|
||
if training_mode == 'product':
|
||
# 按产品训练:使用所有店铺的该产品数据
|
||
product_data = self.data[self.data['product_id'] == product_id].copy()
|
||
if product_data.empty:
|
||
log_message(f"找不到产品 {product_id} 的数据", 'error')
|
||
return None
|
||
log_message(f"按产品训练模式: 产品 {product_id}, 数据量: {len(product_data)}")
|
||
|
||
elif training_mode == 'store':
|
||
# 按店铺训练
|
||
if not store_id:
|
||
log_message("店铺训练模式需要指定 store_id", 'error')
|
||
return None
|
||
|
||
# 如果product_id是'unknown',则表示为店铺所有商品训练一个聚合模型
|
||
if product_id == 'unknown':
|
||
try:
|
||
# 使用新的聚合函数,按店铺聚合
|
||
product_data = aggregate_multi_store_data(
|
||
store_id=store_id,
|
||
aggregation_method=aggregation_method,
|
||
file_path=self.data_path
|
||
)
|
||
log_message(f"按店铺聚合训练: 店铺 {store_id}, 聚合方法 {aggregation_method}, 数据量: {len(product_data)}")
|
||
# 将product_id设置为店铺ID,以便模型保存时使用有意义的标识
|
||
product_id = store_id
|
||
except Exception as e:
|
||
log_message(f"聚合店铺 {store_id} 数据失败: {e}", 'error')
|
||
return None
|
||
else:
|
||
# 为店铺的单个特定产品训练
|
||
try:
|
||
product_data = get_store_product_sales_data(
|
||
store_id=store_id,
|
||
product_id=product_id,
|
||
file_path=self.data_path
|
||
)
|
||
log_message(f"按店铺-产品训练: 店铺 {store_id}, 产品 {product_id}, 数据量: {len(product_data)}")
|
||
except Exception as e:
|
||
log_message(f"获取店铺产品数据失败: {e}", 'error')
|
||
return None
|
||
|
||
elif training_mode == 'global':
|
||
# 全局训练:聚合所有店铺的产品数据
|
||
try:
|
||
# 如果product_id是'unknown',则表示为全局所有商品训练一个聚合模型
|
||
if product_id == 'unknown':
|
||
product_data = aggregate_multi_store_data(
|
||
product_id=None, # 传递None以触发真正的全局聚合
|
||
aggregation_method=aggregation_method,
|
||
file_path=self.data_path
|
||
)
|
||
log_message(f"全局训练模式: 所有产品, 聚合方法 {aggregation_method}, 数据量: {len(product_data)}")
|
||
# 将product_id设置为一个有意义的标识符
|
||
product_id = 'all_products'
|
||
else:
|
||
product_data = aggregate_multi_store_data(
|
||
product_id=product_id,
|
||
aggregation_method=aggregation_method,
|
||
file_path=self.data_path
|
||
)
|
||
log_message(f"全局训练模式: 产品 {product_id}, 聚合方法 {aggregation_method}, 数据量: {len(product_data)}")
|
||
except Exception as e:
|
||
log_message(f"聚合全局数据失败: {e}", 'error')
|
||
return None
|
||
else:
|
||
log_message(f"不支持的训练模式: {training_mode}", 'error')
|
||
return None
|
||
|
||
# 根据训练模式构建模型标识符
|
||
if training_mode == 'store':
|
||
model_identifier = f"{store_id}_{product_id}"
|
||
elif training_mode == 'global':
|
||
model_identifier = f"global_{product_id}_{aggregation_method}"
|
||
else:
|
||
model_identifier = product_id
|
||
|
||
# 调用相应的训练函数
|
||
try:
|
||
log_message(f"🤖 开始调用 {model_type} 训练器")
|
||
if model_type == 'transformer':
|
||
model_result, metrics, actual_version = train_product_model_with_transformer(
|
||
product_id=product_id,
|
||
product_df=product_data,
|
||
store_id=store_id,
|
||
training_mode=training_mode,
|
||
aggregation_method=aggregation_method,
|
||
epochs=epochs,
|
||
model_dir=self.model_dir,
|
||
version=version,
|
||
socketio=socketio,
|
||
task_id=task_id,
|
||
continue_training=continue_training,
|
||
path_info=path_info
|
||
)
|
||
log_message(f"✅ {model_type} 训练器返回: metrics={type(metrics)}, version={actual_version}", 'success')
|
||
elif model_type == 'mlstm':
|
||
_, metrics, _, _ = train_product_model_with_mlstm(
|
||
product_id=product_id,
|
||
product_df=product_data,
|
||
store_id=store_id,
|
||
training_mode=training_mode,
|
||
aggregation_method=aggregation_method,
|
||
epochs=epochs,
|
||
model_dir=self.model_dir,
|
||
socketio=socketio,
|
||
task_id=task_id,
|
||
progress_callback=progress_callback,
|
||
path_info=path_info
|
||
)
|
||
elif model_type == 'kan':
|
||
_, metrics = train_product_model_with_kan(
|
||
product_id=product_id,
|
||
product_df=product_data,
|
||
store_id=store_id,
|
||
training_mode=training_mode,
|
||
aggregation_method=aggregation_method,
|
||
epochs=epochs,
|
||
use_optimized=use_optimized,
|
||
path_info=path_info
|
||
)
|
||
elif model_type == 'optimized_kan':
|
||
_, metrics = train_product_model_with_kan(
|
||
product_id=product_id,
|
||
product_df=product_data,
|
||
store_id=store_id,
|
||
training_mode=training_mode,
|
||
aggregation_method=aggregation_method,
|
||
epochs=epochs,
|
||
use_optimized=True,
|
||
path_info=path_info
|
||
)
|
||
elif model_type == 'tcn':
|
||
_, metrics, _, _ = train_product_model_with_tcn(
|
||
product_id=product_id,
|
||
product_df=product_data,
|
||
store_id=store_id,
|
||
training_mode=training_mode,
|
||
aggregation_method=aggregation_method,
|
||
epochs=epochs,
|
||
model_dir=self.model_dir,
|
||
socketio=socketio,
|
||
task_id=task_id,
|
||
path_info=path_info
|
||
)
|
||
else:
|
||
log_message(f"不支持的模型类型: {model_type}", 'error')
|
||
return None
|
||
|
||
# 检查和打印返回的metrics
|
||
log_message(f"📊 训练完成,检查返回的metrics: {metrics}")
|
||
|
||
# 在返回的metrics中添加训练信息
|
||
if metrics:
|
||
log_message(f"✅ metrics不为空,添加训练信息")
|
||
metrics.update({
|
||
'training_mode': training_mode,
|
||
'store_id': store_id,
|
||
'product_id': product_id,
|
||
'model_identifier': model_identifier,
|
||
'aggregation_method': aggregation_method if training_mode == 'global' else None
|
||
})
|
||
log_message(f"📈 最终返回的metrics: {metrics}", 'success')
|
||
else:
|
||
log_message(f"⚠️ metrics为空或None", 'warning')
|
||
|
||
return metrics
|
||
|
||
except Exception as e:
|
||
log_message(f"模型训练失败: {e}", 'error')
|
||
return None
|
||
|
||
def predict(self, product_id, model_type, future_days=7, start_date=None, analyze_result=False, version=None,
|
||
store_id=None, training_mode='product', aggregation_method='sum'):
|
||
"""
|
||
使用已训练的模型进行预测 - 支持多店铺预测
|
||
|
||
参数:
|
||
product_id: 产品ID
|
||
model_type: 模型类型
|
||
future_days: 预测未来天数
|
||
start_date: 预测起始日期
|
||
analyze_result: 是否分析预测结果
|
||
version: 模型版本,如果为None则使用最新版本
|
||
store_id: 店铺ID(仅当training_mode为'store'时使用)
|
||
training_mode: 训练模式 ('product', 'store', 'global')
|
||
aggregation_method: 聚合方法 ('sum', 'mean', 'median') - 仅用于全局预测
|
||
|
||
返回:
|
||
预测结果和分析(如果analyze_result为True)
|
||
"""
|
||
# 根据训练模式构建模型标识符
|
||
if training_mode == 'store' and store_id:
|
||
model_identifier = f"{store_id}_{product_id}"
|
||
elif training_mode == 'global':
|
||
model_identifier = f"global_{product_id}_{aggregation_method}"
|
||
else:
|
||
model_identifier = product_id
|
||
|
||
return load_model_and_predict(
|
||
model_identifier,
|
||
model_type,
|
||
future_days=future_days,
|
||
start_date=start_date,
|
||
analyze_result=analyze_result,
|
||
version=version
|
||
)
|
||
|
||
def train_optimized_kan_model(self, product_id, epochs=100, batch_size=32,
|
||
learning_rate=0.001, sequence_length=30, forecast_horizon=7,
|
||
hidden_size=64, num_layers=2, dropout=0.1):
|
||
"""
|
||
训练优化版KAN模型(便捷方法)
|
||
|
||
参数与train_model相同,但固定model_type为'kan'且use_optimized为True
|
||
"""
|
||
return self.train_model(
|
||
product_id=product_id,
|
||
model_type='kan',
|
||
epochs=epochs,
|
||
batch_size=batch_size,
|
||
learning_rate=learning_rate,
|
||
sequence_length=sequence_length,
|
||
forecast_horizon=forecast_horizon,
|
||
hidden_size=hidden_size,
|
||
num_layers=num_layers,
|
||
dropout=dropout,
|
||
use_optimized=True
|
||
)
|
||
|
||
def compare_kan_models(self, product_id, epochs=100, batch_size=32,
|
||
learning_rate=0.001, sequence_length=30, forecast_horizon=7,
|
||
hidden_size=64, num_layers=2, dropout=0.1):
|
||
"""
|
||
比较原始KAN和优化版KAN模型性能
|
||
|
||
参数与train_model相同
|
||
|
||
返回:
|
||
比较结果字典
|
||
"""
|
||
print(f"开始比较产品 {product_id} 的原始KAN和优化版KAN模型性能...")
|
||
|
||
# 训练原始KAN模型
|
||
print("\n训练原始KAN模型...")
|
||
kan_metrics = self.train_model(
|
||
product_id=product_id,
|
||
model_type='kan',
|
||
epochs=epochs,
|
||
batch_size=batch_size,
|
||
learning_rate=learning_rate,
|
||
sequence_length=sequence_length,
|
||
forecast_horizon=forecast_horizon,
|
||
hidden_size=hidden_size,
|
||
num_layers=num_layers,
|
||
dropout=dropout,
|
||
use_optimized=False
|
||
)
|
||
|
||
# 训练优化版KAN模型
|
||
print("\n训练优化版KAN模型...")
|
||
optimized_kan_metrics = self.train_model(
|
||
product_id=product_id,
|
||
model_type='kan',
|
||
epochs=epochs,
|
||
batch_size=batch_size,
|
||
learning_rate=learning_rate,
|
||
sequence_length=sequence_length,
|
||
forecast_horizon=forecast_horizon,
|
||
hidden_size=hidden_size,
|
||
num_layers=num_layers,
|
||
dropout=dropout,
|
||
use_optimized=True
|
||
)
|
||
|
||
# 比较结果
|
||
comparison = {
|
||
'kan': kan_metrics,
|
||
'optimized_kan': optimized_kan_metrics
|
||
}
|
||
|
||
# 打印比较结果
|
||
print("\n模型性能比较:")
|
||
print(f"{'指标':<10} {'原始KAN':<15} {'优化版KAN':<15} {'改进百分比':<15}")
|
||
print("-" * 55)
|
||
|
||
for metric in ['mse', 'rmse', 'mae', 'mape']:
|
||
if metric in kan_metrics and metric in optimized_kan_metrics:
|
||
kan_value = kan_metrics[metric]
|
||
opt_value = optimized_kan_metrics[metric]
|
||
improvement = (kan_value - opt_value) / kan_value * 100 if kan_value != 0 else 0
|
||
print(f"{metric.upper():<10} {kan_value:<15.4f} {opt_value:<15.4f} {improvement:<15.2f}%")
|
||
|
||
# R²值越高越好,所以计算改进的方式不同
|
||
if 'r2' in kan_metrics and 'r2' in optimized_kan_metrics:
|
||
kan_r2 = kan_metrics['r2']
|
||
opt_r2 = optimized_kan_metrics['r2']
|
||
improvement = (opt_r2 - kan_r2) / (1 - kan_r2) * 100 if kan_r2 != 1 else 0
|
||
print(f"{'R²':<10} {kan_r2:<15.4f} {opt_r2:<15.4f} {improvement:<15.2f}%")
|
||
|
||
# 训练时间
|
||
if 'training_time' in kan_metrics and 'training_time' in optimized_kan_metrics:
|
||
kan_time = kan_metrics['training_time']
|
||
opt_time = optimized_kan_metrics['training_time']
|
||
time_diff = (opt_time - kan_time) / kan_time * 100 if kan_time != 0 else 0
|
||
print(f"{'时间(秒)':<10} {kan_time:<15.2f} {opt_time:<15.2f} {time_diff:<15.2f}%")
|
||
|
||
return comparison
|
||
|
||
def list_available_models(self, product_id=None, store_id=None, training_mode=None):
|
||
"""
|
||
列出可用的已训练模型 - 支持多店铺模型
|
||
|
||
参数:
|
||
product_id: 产品ID,如果为None则列出所有模型
|
||
store_id: 店铺ID,用于筛选店铺专属模型
|
||
training_mode: 训练模式筛选 ('product', 'store', 'global')
|
||
|
||
返回:
|
||
可用模型列表
|
||
"""
|
||
if not os.path.exists(self.model_dir):
|
||
print(f"模型目录 {self.model_dir} 不存在")
|
||
return []
|
||
|
||
model_files = os.listdir(self.model_dir)
|
||
|
||
models = []
|
||
for file in model_files:
|
||
if file.endswith('.pth'):
|
||
try:
|
||
# 解析模型文件名
|
||
model_info = self._parse_model_filename(file)
|
||
if model_info:
|
||
# 应用过滤条件
|
||
if product_id and model_info.get('product_id') != product_id:
|
||
continue
|
||
if store_id and model_info.get('store_id') != store_id:
|
||
continue
|
||
if training_mode and model_info.get('training_mode') != training_mode:
|
||
continue
|
||
|
||
model_info['file_name'] = file
|
||
model_info['file_path'] = os.path.join(self.model_dir, file)
|
||
models.append(model_info)
|
||
except Exception as e:
|
||
print(f"解析模型文件名失败: {file}, 错误: {e}")
|
||
continue
|
||
|
||
return models
|
||
|
||
def _parse_model_filename(self, filename):
|
||
"""
|
||
解析模型文件名,提取模型信息
|
||
|
||
参数:
|
||
filename: 模型文件名
|
||
|
||
返回:
|
||
dict: 模型信息字典
|
||
"""
|
||
# 移除文件扩展名
|
||
name = filename.replace('.pth', '')
|
||
|
||
# 解析新的多店铺模型命名格式
|
||
if '_model_product_' in name:
|
||
parts = name.split('_model_product_')
|
||
model_type = parts[0]
|
||
product_part = parts[1]
|
||
|
||
# 检查是否是店铺模型 (格式: model_type_model_product_store_id_product_id)
|
||
if len(product_part.split('_')) > 1:
|
||
store_id = product_part.split('_')[0]
|
||
product_id = '_'.join(product_part.split('_')[1:])
|
||
training_mode = 'store'
|
||
# 检查是否是全局模型 (格式: model_type_model_product_global_product_id_method)
|
||
elif product_part.startswith('global_'):
|
||
parts = product_part.split('_')
|
||
if len(parts) >= 3:
|
||
product_id = '_'.join(parts[1:-1])
|
||
aggregation_method = parts[-1]
|
||
store_id = None
|
||
training_mode = 'global'
|
||
else:
|
||
product_id = product_part
|
||
store_id = None
|
||
training_mode = 'product'
|
||
else:
|
||
# 常规产品模型
|
||
product_id = product_part
|
||
store_id = None
|
||
training_mode = 'product'
|
||
|
||
# 处理优化版KAN模型
|
||
if 'optimized' in model_type:
|
||
model_type = 'optimized_kan'
|
||
|
||
return {
|
||
'model_type': model_type,
|
||
'product_id': product_id,
|
||
'store_id': store_id,
|
||
'training_mode': training_mode,
|
||
'aggregation_method': aggregation_method if training_mode == 'global' and 'aggregation_method' in locals() else None
|
||
}
|
||
|
||
# 处理旧格式的向后兼容性
|
||
elif "kan_optimized_model" in name:
|
||
model_type = "optimized_kan"
|
||
product_id = name.split('_product_')[1] if '_product_' in name else 'unknown'
|
||
return {
|
||
'model_type': model_type,
|
||
'product_id': product_id,
|
||
'store_id': None,
|
||
'training_mode': 'product',
|
||
'aggregation_method': None
|
||
}
|
||
|
||
return None
|
||
|
||
def delete_model(self, product_id, model_type):
|
||
"""
|
||
删除已训练的模型
|
||
|
||
参数:
|
||
product_id: 产品ID
|
||
model_type: 模型类型
|
||
|
||
返回:
|
||
是否成功删除
|
||
"""
|
||
model_suffix = '_optimized' if model_type == 'optimized_kan' else ''
|
||
model_name = f"{model_type}{model_suffix}_model_product_{product_id}.pth"
|
||
model_path = os.path.join(self.model_dir, model_name)
|
||
|
||
if os.path.exists(model_path):
|
||
os.remove(model_path)
|
||
print(f"已删除模型: {model_path}")
|
||
return True
|
||
else:
|
||
print(f"模型文件 {model_path} 不存在")
|
||
return False |