**日期**: 2025-07-18 **主题**: 模型保存逻辑重构与集中化管理 ### 目标 根据 `xz训练模型保存规则.md`,将系统中分散的模型文件保存逻辑统一重构,创建一个集中、健壮且可测试的路径管理系统。 ### 核心成果 1. **创建了 `server/utils/file_save.py` 模块**: 这个新模块现在是系统中处理模型文件保存路径的唯一权威来源。 2. **实现了三种训练模式的路径生成**: 系统现在可以为“按店铺”、“按药品”和“全局”三种训练模式正确生成层级化的、可追溯的目录结构。 3. **集成了智能ID处理**: * 对于包含**多个ID**的训练场景,系统会自动计算一个简短的哈希值作为目录名。 * 对于全局训练中只包含**单个店铺或药品ID**的场景,系统会直接使用该ID作为目录名,增强了路径的可读性。 4. **重构了整个训练流程**: 修改了API层、进程管理层以及所有模型训练器,使它们能够协同使用新的路径管理模块。 5. **添加了自动化测试**: 创建了 `test/test_file_save_logic.py` 脚本,用于验证所有路径生成和版本管理逻辑的正确性。 ### 详细文件修改记录 1. **`server/utils/file_save.py`** * **操作**: 创建 * **内容**: 实现了 `ModelPathManager` 类,包含以下核心方法: * `_hash_ids`: 对ID列表进行排序和哈希。 * `_generate_identifier`: 根据训练模式和参数生成唯一的模型标识符。 * `get_next_version` / `save_version_info`: 线程安全地管理 `versions.json` 文件,实现版本号的获取和更新。 * `get_model_paths`: 作为主入口,协调以上方法,生成包含所有产物路径的字典。 2. **`server/api.py`** * **操作**: 修改 * **位置**: `start_training` 函数 (`/api/training` 端点)。 * **内容**: * 导入并实例化 `ModelPathManager`。 * 在接收到训练请求后,调用 `path_manager.get_model_paths()` 来获取所有路径信息。 * 将获取到的 `path_info` 字典和原始请求参数 `training_params` 一并传递给后台训练任务管理器。 * 修复了因重复传递关键字参数 (`model_type`, `training_mode`) 导致的 `TypeError`。 * 修复了 `except` 块中因未导入 `traceback` 模块导致的 `UnboundLocalError`。 3. **`server/utils/training_process_manager.py`** * **操作**: 修改 * **内容**: * 修改 `submit_task` 方法,使其能接收 `training_params` 和 `path_info` 字典。 * 在 `TrainingTask` 数据类中增加了 `path_info` 字段来存储路径信息。 * 在 `TrainingWorker` 中,将 `path_info` 传递给实际的训练函数。 * 在 `_monitor_results` 方法中,当任务成功完成时,调用 `path_manager.save_version_info` 来更新 `versions.json`,完成版本管理的闭环。 4. **所有训练器文件** (`mlstm_trainer.py`, `kan_trainer.py`, `tcn_trainer.py`, `transformer_trainer.py`) * **操作**: 修改 * **内容**: * 统一修改了主训练函数的签名,增加了 `path_info=None` 参数。 * 移除了所有内部手动构建文件路径的逻辑。 * 所有保存操作(最终模型、检查点、损失曲线图)现在都直接从传入的 `path_info` 字典中获取预先生成好的路径。 * 简化了 `save_checkpoint` 辅助函数,使其也依赖 `path_info`。 5. **`test/test_file_save_logic.py`** * **操作**: 创建 * **内容**: * 编写了一个独立的测试脚本,用于验证 `ModelPathManager` 的所有功能。 * 覆盖了所有训练模式及其子场景(包括单ID和多ID哈希)。 * 测试了版本号的正确递增和 `versions.json` 的写入。 * 修复了测试脚本中因绝对/相对路径不匹配和重复关键字参数导致的多个 `AssertionError` 和 `TypeError`。 --- **日期**: 2025-07-18 (后续修复) **主题**: 修复API层调用路径管理器时的 `TypeError` ### 问题描述 在完成所有重构和测试后,实际运行API时,`POST /api/training` 端点在调用 `path_manager.get_model_paths` 时崩溃,并抛出 `TypeError: get_model_paths() got multiple values for keyword argument 'training_mode'`。 ### 根本原因 这是一个回归错误。在修复测试脚本 `test_file_save_logic.py` 中的类似问题时,我未能将相同的修复逻辑应用回 `server/api.py`。代码在调用 `get_model_paths` 时,既通过关键字参数 `training_mode=...` 明确传递了该参数,又通过 `**data` 将其再次传入,导致了冲突。 ### 解决方案 1. **文件**: `server/api.py` 2. **位置**: `start_training` 函数。 3. **操作**: 修改了对 `get_model_paths` 的调用逻辑。 4. **内容**: ```python # 移除 model_type 和 training_mode 以避免重复关键字参数错误 data_for_path = data.copy() data_for_path.pop('model_type', None) data_for_path.pop('training_mode', None) path_info = path_manager.get_model_paths( training_mode=training_mode, model_type=model_type, **data_for_path # 传递剩余的payload ) ``` 5. **原因**: 在通过 `**` 解包传递参数之前,先从字典副本中移除了所有会被明确指定的关键字参数,从而确保了函数调用签名的正确性。 --- **日期**: 2025-07-18 (最终修复) **主题**: 修复因中间层函数签名未更新导致的 `TypeError` ### 问题描述 在完成所有重构后,实际运行API并触发训练任务时,程序在后台进程中因 `TypeError: train_model() got an unexpected keyword argument 'path_info'` 而崩溃。 ### 根本原因 这是一个典型的“中间人”遗漏错误。我成功地修改了调用链的两端(`api.py` -> `training_process_manager.py` 和 `*_trainer.py`),但忘记了修改它们之间的中间层——`server/core/predictor.py` 中的 `train_model` 方法。`training_process_manager` 尝试将 `path_info` 传递给 `predictor.train_model`,但后者的函数签名中并未包含这个新参数,导致了 `TypeError`。 ### 解决方案 1. **文件**: `server/core/predictor.py` 2. **位置**: `train_model` 函数的定义处。 3. **操作**: 在函数签名中增加了 `path_info=None` 参数。 4. **内容**: ```python def train_model(self, ..., progress_callback=None, path_info=None): # ... ``` 5. **位置**: `train_model` 函数内部,对所有具体训练器(`train_product_model_with_mlstm`, `_with_kan`, etc.)的调用处。 6. **操作**: 在所有调用中,将接收到的 `path_info` 参数透传下去。 7. **内容**: ```python # ... metrics = train_product_model_with_transformer( ..., path_info=path_info ) # ... ``` 8. **原因**: 通过在中间层函数上“打通”`path_info` 参数的传递通道,确保了从API层到最终训练器层的完整数据流,解决了 `TypeError`。 --- **日期**: 2025-07-18 (最终修复) **主题**: 修复“按药品训练-聚合所有店铺”模式下的路径生成错误 ### 问题描述 在实际运行中发现,当进行“按药品训练”并选择“聚合所有店铺”时,生成的模型保存路径中包含了错误的后缀 `_None`,而不是预期的 `_all` (例如 `.../17002608_None/...`)。 ### 根本原因 在 `server/utils/file_save.py` 的 `_generate_identifier` 和 `get_model_paths` 方法中,当 `store_id` 从前端传来为 `None` 时,代码 `scope = store_id if store_id else 'all'` 会因为 `store_id` 是 `None` 而正确地将 `scope` 设为 `'all'`。然而,在 `get_model_paths` 方法中,我错误地使用了 `kwargs.get('store_id', 'all')`,这在 `store_id` 键存在但值为 `None` 时,仍然会返回 `None`,导致了路径拼接错误。 ### 解决方案 1. **文件**: `server/utils/file_save.py` 2. **位置**: `_generate_identifier` 和 `get_model_paths` 方法中处理 `product` 训练模式的部分。 3. **操作**: 将逻辑从 `scope = kwargs.get('store_id', 'all')` 修改为更严谨的 `scope = store_id if store_id is not None else 'all'`。 4. **内容**: ```python # in _generate_identifier scope = store_id if store_id is not None else 'all' # in get_model_paths store_id = kwargs.get('store_id') scope = store_id if store_id is not None else 'all' scope_folder = f"{product_id}_{scope}" ``` 5. **原因**: 这种写法能正确处理 `store_id` 键不存在、或键存在但值为 `None` 的两种情况,确保在这两种情况下 `scope` 都被正确地设置为 `'all'`,从而生成符合规范的路径。 --- **日期**: 2025-07-18 (最终修复) **主题**: 修复 `KeyError: 'price'` 和单ID哈希错误 ### 问题描述 在完成大规模重构后,实际运行时发现了两个隐藏的bug: 1. 在“按店铺训练”模式下,训练因 `KeyError: 'price'` 而失败。 2. 在“按店铺训练”模式下,当只选择一个“指定药品”时,系统仍然错误地对该药品的ID进行了哈希处理,而不是直接使用ID。 ### 根本原因 1. **`KeyError`**: `server/utils/multi_store_data_utils.py` 中的 `get_store_product_sales_data` 函数包含了一个硬编码的列校验,该校验要求 `price` 列必须存在,但这与当前的数据源不符。 2. **哈希错误**: `server/utils/file_save.py` 中的 `get_model_paths` 方法在处理 `store` 训练模式时,没有复用 `_generate_identifier` 中已经写好的单ID判断逻辑,导致了逻辑不一致。 ### 解决方案 1. **修复 `KeyError`**: * **文件**: `server/utils/multi_store_data_utils.py` * **位置**: `get_store_product_sales_data` 函数。 * **操作**: 从 `required_columns` 列表中移除了 `'price'`,根除了这个硬性依赖。 2. **修复哈希逻辑**: * **文件**: `server/utils/file_save.py` * **位置**: `_generate_identifier` 和 `get_model_paths` 方法中处理 `store` 训练模式的部分。 * **操作**: 统一了逻辑,确保在这两个地方都使用了 `scope = product_ids[0] if len(product_ids) == 1 else self._hash_ids(product_ids)` 的判断,从而在只选择一个药品时直接使用其ID。 3. **更新测试**: * **文件**: `test/test_file_save_logic.py` * **操作**: 增加了新的测试用例,专门验证“按店铺训练-单个指定药品”场景下的路径生成是否正确。 --- **日期**: 2025-07-18 (最终修复) **主题**: 修复全局训练范围值不匹配导致的 `ValueError` ### 问题描述 在完成所有重构后,实际运行API并触发“全局训练-所有店铺所有药品”时,程序因 `ValueError: 未知的全局训练范围: all_stores_all_products` 而崩溃。 ### 根本原因 前端传递的 `training_scope` 值为 `all_stores_all_products`,而 `server/utils/file_save.py` 中的 `_generate_identifier` 和 `get_model_paths` 方法只处理了 `all` 这个值,未能兼容前端传递的具体字符串,导致逻辑判断失败。 ### 解决方案 1. **文件**: `server/utils/file_save.py` 2. **位置**: `_generate_identifier` 和 `get_model_paths` 方法中处理 `global` 训练模式的部分。 3. **操作**: 将逻辑判断从 `if training_scope == 'all':` 修改为 `if training_scope in ['all', 'all_stores_all_products']:`。 4. **原因**: 使代码能够同时兼容两种表示“所有范围”的字符串,确保了前端请求的正确处理。 5. **更新测试**: * **文件**: `test/test_file_save_logic.py` * **操作**: 增加了新的测试用例,专门验证 `training_scope` 为 `all_stores_all_products` 时的路径生成是否正确。 --- **日期**: 2025-07-18 (最终优化) **主题**: 优化全局训练自定义模式下的单ID路径生成 ### 问题描述 根据用户反馈,希望在全局训练的“自定义范围”模式下,如果只选择单个店铺和/或单个药品,路径中应直接使用ID而不是哈希值,以增强可读性。 ### 解决方案 1. **文件**: `server/utils/file_save.py` 2. **位置**: `_generate_identifier` 和 `get_model_paths` 方法中处理 `global` 训练模式 `custom` 范围的部分。 3. **操作**: 为 `store_ids` 和 `product_ids` 分别增加了单ID判断逻辑。 4. **内容**: ```python # in _generate_identifier s_id = store_ids[0] if len(store_ids) == 1 else self._hash_ids(store_ids) p_id = product_ids[0] if len(product_ids) == 1 else self._hash_ids(product_ids) scope_part = f"custom_s_{s_id}_p_{p_id}" # in get_model_paths store_ids = kwargs.get('store_ids', []) product_ids = kwargs.get('product_ids', []) s_id = store_ids[0] if len(store_ids) == 1 else self._hash_ids(store_ids) p_id = product_ids[0] if len(product_ids) == 1 else self._hash_ids(product_ids) scope_parts.extend(['custom', s_id, p_id]) ``` 5. **原因**: 使 `custom` 模式下的路径生成逻辑与 `selected_stores` 和 `selected_products` 模式保持一致,在只选择一个ID时优先使用ID本身,提高了路径的可读性和一致性。 6. **更新测试**: * **文件**: `test/test_file_save_logic.py` * **操作**: 增加了新的测试用例,专门验证“全局训练-自定义范围-单ID”场景下的路径生成是否正确。
557 lines
21 KiB
Python
557 lines
21 KiB
Python
"""
|
||
药店销售预测系统 - mLSTM模型训练函数
|
||
"""
|
||
|
||
import os
|
||
import time
|
||
import pandas as pd
|
||
import numpy as np
|
||
import torch
|
||
import torch.nn as nn
|
||
import torch.optim as optim
|
||
from torch.utils.data import DataLoader
|
||
from sklearn.preprocessing import MinMaxScaler
|
||
import matplotlib.pyplot as plt
|
||
from tqdm import tqdm
|
||
|
||
from models.mlstm_model import MLSTMTransformer as MatrixLSTM
|
||
from utils.data_utils import create_dataset, PharmacyDataset
|
||
from utils.multi_store_data_utils import get_store_product_sales_data, aggregate_multi_store_data
|
||
from utils.visualization import plot_loss_curve
|
||
from analysis.metrics import evaluate_model
|
||
from core.config import (
|
||
DEVICE, DEFAULT_MODEL_DIR, LOOK_BACK, FORECAST_HORIZON,
|
||
get_next_model_version, get_model_file_path, get_latest_model_version
|
||
)
|
||
from utils.training_progress import progress_manager
|
||
|
||
def save_checkpoint(checkpoint_data: dict, epoch_or_label, path_info: dict):
|
||
"""
|
||
保存训练检查点
|
||
|
||
Args:
|
||
checkpoint_data: 检查点数据
|
||
epoch_or_label: epoch编号或标签(如'best', 'final', 50)
|
||
path_info (dict): 包含所有路径信息的字典
|
||
"""
|
||
if epoch_or_label == 'best':
|
||
checkpoint_path = path_info['best_checkpoint_path']
|
||
else:
|
||
checkpoint_path = os.path.join(path_info['checkpoint_dir'], f"checkpoint_epoch_{epoch_or_label}.pth")
|
||
|
||
# 保存检查点
|
||
torch.save(checkpoint_data, checkpoint_path)
|
||
print(f"[mLSTM] 检查点已保存: {checkpoint_path}", flush=True)
|
||
|
||
return checkpoint_path
|
||
|
||
|
||
def load_checkpoint(product_id: str, model_type: str, epoch_or_label,
|
||
model_dir: str, store_id=None, training_mode: str = 'product',
|
||
aggregation_method=None):
|
||
"""
|
||
加载训练检查点
|
||
|
||
Args:
|
||
product_id: 产品ID
|
||
model_type: 模型类型
|
||
epoch_or_label: epoch编号或标签
|
||
model_dir: 模型保存目录
|
||
store_id: 店铺ID
|
||
training_mode: 训练模式
|
||
aggregation_method: 聚合方法
|
||
|
||
Returns:
|
||
checkpoint_data: 检查点数据,如果未找到返回None
|
||
"""
|
||
checkpoint_dir = os.path.join(model_dir, 'checkpoints')
|
||
|
||
# 生成检查点文件名
|
||
if training_mode == 'store' and store_id:
|
||
filename = f"{model_type}_store_{store_id}_{product_id}_epoch_{epoch_or_label}.pth"
|
||
elif training_mode == 'global' and aggregation_method:
|
||
filename = f"{model_type}_global_{product_id}_{aggregation_method}_epoch_{epoch_or_label}.pth"
|
||
else:
|
||
filename = f"{model_type}_product_{product_id}_epoch_{epoch_or_label}.pth"
|
||
|
||
checkpoint_path = os.path.join(checkpoint_dir, filename)
|
||
|
||
if os.path.exists(checkpoint_path):
|
||
try:
|
||
checkpoint_data = torch.load(checkpoint_path, map_location=DEVICE)
|
||
print(f"[mLSTM] 检查点已加载: {checkpoint_path}", flush=True)
|
||
return checkpoint_data
|
||
except Exception as e:
|
||
print(f"[mLSTM] 加载检查点失败: {e}", flush=True)
|
||
return None
|
||
else:
|
||
print(f"[mLSTM] 检查点文件不存在: {checkpoint_path}", flush=True)
|
||
return None
|
||
|
||
def train_product_model_with_mlstm(
|
||
product_id,
|
||
product_df,
|
||
store_id=None,
|
||
training_mode='product',
|
||
aggregation_method='sum',
|
||
epochs=50,
|
||
model_dir=DEFAULT_MODEL_DIR, # 将被 path_info 替代
|
||
version=None, # 将被 path_info 替代
|
||
socketio=None,
|
||
task_id=None,
|
||
continue_training=False,
|
||
progress_callback=None,
|
||
path_info=None, # 新增参数
|
||
patience=10,
|
||
learning_rate=0.001,
|
||
clip_norm=1.0
|
||
):
|
||
"""
|
||
使用mLSTM训练产品销售预测模型
|
||
|
||
参数:
|
||
product_id: 产品ID
|
||
store_id: 店铺ID,为None时使用全局数据
|
||
training_mode: 训练模式 ('product', 'store', 'global')
|
||
aggregation_method: 聚合方法 ('sum', 'mean', 'weighted')
|
||
epochs: 训练轮次
|
||
model_dir: 模型保存目录
|
||
version: 模型版本,如果为None则自动生成
|
||
socketio: Socket.IO实例,用于实时进度推送
|
||
task_id: 任务ID
|
||
continue_training: 是否继续训练
|
||
progress_callback: 进度回调函数,用于多进程训练
|
||
"""
|
||
|
||
# 验证 path_info 是否提供
|
||
if not path_info:
|
||
raise ValueError("train_product_model_with_mlstm 需要 'path_info' 参数。")
|
||
|
||
version = path_info['version']
|
||
|
||
# 创建WebSocket进度反馈函数,支持多进程
|
||
def emit_progress(message, progress=None, metrics=None):
|
||
"""发送训练进度到前端"""
|
||
progress_data = {
|
||
'task_id': task_id,
|
||
'message': message,
|
||
'timestamp': time.time()
|
||
}
|
||
if progress is not None:
|
||
progress_data['progress'] = progress
|
||
if metrics is not None:
|
||
progress_data['metrics'] = metrics
|
||
|
||
# 在多进程环境中使用progress_callback
|
||
if progress_callback:
|
||
try:
|
||
progress_callback(progress_data)
|
||
except Exception as e:
|
||
print(f"[mLSTM] 进度回调失败: {e}")
|
||
|
||
# 在单进程环境中使用socketio
|
||
if socketio and task_id:
|
||
try:
|
||
socketio.emit('training_progress', progress_data, namespace='/training')
|
||
except Exception as e:
|
||
print(f"[mLSTM] WebSocket发送失败: {e}")
|
||
|
||
print(f"[mLSTM] {message}", flush=True)
|
||
# 强制刷新输出缓冲区
|
||
import sys
|
||
sys.stdout.flush()
|
||
sys.stderr.flush()
|
||
|
||
emit_progress(f"开始训练 mLSTM 模型版本 v{version}")
|
||
|
||
# 初始化训练进度管理器(如果还未初始化)
|
||
if socketio and task_id:
|
||
print(f"[mLSTM] 任务 {task_id}: 开始mLSTM训练器", flush=True)
|
||
try:
|
||
# 初始化进度管理器
|
||
if not hasattr(progress_manager, 'training_id') or progress_manager.training_id != task_id:
|
||
progress_manager.start_training(
|
||
training_id=task_id,
|
||
product_id=product_id,
|
||
model_type='mlstm',
|
||
training_mode=training_mode,
|
||
total_epochs=epochs,
|
||
total_batches=0, # 将在后面设置
|
||
batch_size=32, # 默认值
|
||
total_samples=0 # 将在后面设置
|
||
)
|
||
print(f"[mLSTM] 任务 {task_id}: 进度管理器已初始化", flush=True)
|
||
else:
|
||
print(f"[mLSTM] 任务 {task_id}: 使用现有进度管理器", flush=True)
|
||
except Exception as e:
|
||
print(f"[mLSTM] 任务 {task_id}: 进度管理器初始化失败: {e}", flush=True)
|
||
|
||
# 数据现在由调用方传入,不再在此处加载
|
||
if training_mode == 'store' and store_id:
|
||
training_scope = f"店铺 {store_id}"
|
||
elif training_mode == 'global':
|
||
training_scope = f"全局聚合({aggregation_method})"
|
||
else:
|
||
training_scope = "所有店铺"
|
||
|
||
# 数据量检查
|
||
min_required_samples = LOOK_BACK + FORECAST_HORIZON
|
||
if len(product_df) < min_required_samples:
|
||
error_msg = (
|
||
f"❌ 训练数据不足错误\n"
|
||
f"当前配置需要: {min_required_samples} 天数据 (LOOK_BACK={LOOK_BACK} + FORECAST_HORIZON={FORECAST_HORIZON})\n"
|
||
f"实际数据量: {len(product_df)} 天\n"
|
||
f"产品ID: {product_id}, 训练模式: {training_mode}\n"
|
||
f"建议解决方案:\n"
|
||
f"1. 生成更多数据: uv run generate_multi_store_data.py\n"
|
||
f"2. 调整配置参数: 减小 LOOK_BACK 或 FORECAST_HORIZON\n"
|
||
f"3. 使用全局训练模式聚合更多数据"
|
||
)
|
||
print(error_msg)
|
||
emit_progress(f"训练失败:数据不足 ({len(product_df)}/{min_required_samples} 天)")
|
||
raise ValueError(error_msg)
|
||
|
||
product_name = product_df['product_name'].iloc[0]
|
||
|
||
print(f"[mLSTM] 使用mLSTM模型训练产品 '{product_name}' (ID: {product_id}) 的销售预测模型", flush=True)
|
||
print(f"[mLSTM] 训练范围: {training_scope}", flush=True)
|
||
print(f"[mLSTM] 版本: v{version}", flush=True)
|
||
print(f"[mLSTM] 使用设备: {DEVICE}", flush=True)
|
||
print(f"[mLSTM] 模型将保存到目录: {path_info['version_dir']}", flush=True)
|
||
print(f"[mLSTM] 数据量: {len(product_df)} 条记录", flush=True)
|
||
|
||
emit_progress(f"训练产品: {product_name} (ID: {product_id}) - {training_scope}")
|
||
|
||
# 创建特征和目标变量
|
||
features = ['sales', 'weekday', 'month', 'is_holiday', 'is_weekend', 'is_promotion', 'temperature']
|
||
|
||
print(f"[mLSTM] 开始数据预处理,特征: {features}", flush=True)
|
||
|
||
# 预处理数据
|
||
X = product_df[features].values
|
||
y = product_df[['sales']].values # 保持为二维数组
|
||
|
||
print(f"[mLSTM] 特征矩阵形状: {X.shape}, 目标矩阵形状: {y.shape}", flush=True)
|
||
emit_progress("数据预处理中...")
|
||
|
||
# 归一化数据
|
||
scaler_X = MinMaxScaler(feature_range=(0, 1))
|
||
scaler_y = MinMaxScaler(feature_range=(0, 1))
|
||
|
||
X_scaled = scaler_X.fit_transform(X)
|
||
y_scaled = scaler_y.fit_transform(y)
|
||
|
||
print(f"[mLSTM] 数据归一化完成", flush=True)
|
||
|
||
# 划分训练集和测试集(80% 训练,20% 测试)
|
||
train_size = int(len(X_scaled) * 0.8)
|
||
X_train, X_test = X_scaled[:train_size], X_scaled[train_size:]
|
||
y_train, y_test = y_scaled[:train_size], y_scaled[train_size:]
|
||
|
||
# 创建时间序列数据
|
||
trainX, trainY = create_dataset(X_train, y_train, LOOK_BACK, FORECAST_HORIZON)
|
||
testX, testY = create_dataset(X_test, y_test, LOOK_BACK, FORECAST_HORIZON)
|
||
|
||
# 转换为PyTorch的Tensor
|
||
trainX_tensor = torch.Tensor(trainX)
|
||
trainY_tensor = torch.Tensor(trainY)
|
||
testX_tensor = torch.Tensor(testX)
|
||
testY_tensor = torch.Tensor(testY)
|
||
|
||
# 创建数据加载器
|
||
train_dataset = PharmacyDataset(trainX_tensor, trainY_tensor)
|
||
test_dataset = PharmacyDataset(testX_tensor, testY_tensor)
|
||
|
||
batch_size = 32
|
||
train_loader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True)
|
||
test_loader = DataLoader(test_dataset, batch_size=batch_size, shuffle=False)
|
||
|
||
# 更新进度管理器的批次信息
|
||
total_batches = len(train_loader)
|
||
total_samples = len(train_dataset)
|
||
|
||
print(f"[mLSTM] 数据加载器创建完成 - 批次数: {total_batches}, 样本数: {total_samples}", flush=True)
|
||
emit_progress(f"数据加载器准备完成 - 批次数: {total_batches}, 样本数: {total_samples}")
|
||
|
||
# 初始化mLSTM结合Transformer模型
|
||
input_dim = X_train.shape[1]
|
||
output_dim = FORECAST_HORIZON
|
||
hidden_size = 128
|
||
num_heads = 4
|
||
dropout_rate = 0.1
|
||
num_blocks = 3
|
||
embed_dim = 32
|
||
dense_dim = 32
|
||
|
||
print(f"[mLSTM] 初始化模型 - 输入维度: {input_dim}, 输出维度: {output_dim}", flush=True)
|
||
print(f"[mLSTM] 模型参数 - 隐藏层: {hidden_size}, 注意力头: {num_heads}", flush=True)
|
||
emit_progress(f"初始化mLSTM模型 - 输入维度: {input_dim}, 隐藏层: {hidden_size}")
|
||
|
||
model = MatrixLSTM(
|
||
num_features=input_dim,
|
||
hidden_size=hidden_size,
|
||
mlstm_layers=2,
|
||
embed_dim=embed_dim,
|
||
dense_dim=dense_dim,
|
||
num_heads=num_heads,
|
||
dropout_rate=dropout_rate,
|
||
num_blocks=num_blocks,
|
||
output_sequence_length=output_dim
|
||
)
|
||
|
||
print(f"[mLSTM] 模型创建完成", flush=True)
|
||
emit_progress("mLSTM模型初始化完成")
|
||
|
||
# 如果是继续训练,加载现有模型
|
||
if continue_training and version != 'v1':
|
||
# TODO: 继续训练的逻辑需要调整以适应新的路径结构
|
||
# 例如,加载上一个版本的 best checkpoint
|
||
emit_progress("继续训练功能待适配新路径结构,暂时作为新训练开始。")
|
||
|
||
# 将模型移动到设备上
|
||
model = model.to(DEVICE)
|
||
|
||
criterion = nn.MSELoss()
|
||
optimizer = optim.Adam(model.parameters(), lr=learning_rate)
|
||
scheduler = torch.optim.lr_scheduler.ReduceLROnPlateau(optimizer, 'min', patience=patience // 2, factor=0.5)
|
||
|
||
emit_progress("数据预处理完成,开始模型训练...", progress=10)
|
||
|
||
# 训练模型
|
||
train_losses = []
|
||
test_losses = []
|
||
start_time = time.time()
|
||
|
||
# 配置检查点保存
|
||
checkpoint_interval = max(1, epochs // 10) # 每10%进度保存一次,最少每1个epoch
|
||
best_loss = float('inf')
|
||
epochs_no_improve = 0
|
||
|
||
emit_progress(f"开始训练 - 总epoch: {epochs}, 检查点间隔: {checkpoint_interval}, 耐心值: {patience}")
|
||
|
||
for epoch in range(epochs):
|
||
emit_progress(f"开始训练 Epoch {epoch+1}/{epochs}")
|
||
|
||
model.train()
|
||
epoch_loss = 0
|
||
|
||
for batch_idx, (X_batch, y_batch) in enumerate(train_loader):
|
||
X_batch, y_batch = X_batch.to(DEVICE), y_batch.to(DEVICE)
|
||
|
||
# 确保目标张量有正确的形状
|
||
# 前向传播
|
||
outputs = model(X_batch)
|
||
loss = criterion(outputs, y_batch)
|
||
|
||
# 反向传播和优化
|
||
optimizer.zero_grad()
|
||
loss.backward()
|
||
if clip_norm:
|
||
torch.nn.utils.clip_grad_norm_(model.parameters(), max_norm=clip_norm)
|
||
optimizer.step()
|
||
|
||
epoch_loss += loss.item()
|
||
|
||
# 计算训练损失
|
||
train_loss = epoch_loss / len(train_loader)
|
||
train_losses.append(train_loss)
|
||
|
||
# 在测试集上评估
|
||
model.eval()
|
||
test_loss = 0
|
||
with torch.no_grad():
|
||
for batch_idx, (X_batch, y_batch) in enumerate(test_loader):
|
||
X_batch, y_batch = X_batch.to(DEVICE), y_batch.to(DEVICE)
|
||
|
||
outputs = model(X_batch)
|
||
loss = criterion(outputs, y_batch)
|
||
test_loss += loss.item()
|
||
|
||
test_loss = test_loss / len(test_loader)
|
||
test_losses.append(test_loss)
|
||
|
||
# 更新学习率
|
||
scheduler.step(test_loss)
|
||
|
||
# 计算总体训练进度
|
||
epoch_progress = ((epoch + 1) / epochs) * 90 + 10 # 10-100% 范围
|
||
|
||
# 发送训练进度
|
||
current_metrics = {
|
||
'train_loss': train_loss,
|
||
'test_loss': test_loss,
|
||
'epoch': epoch + 1,
|
||
'total_epochs': epochs,
|
||
'learning_rate': optimizer.param_groups[0]['lr']
|
||
}
|
||
|
||
emit_progress(f"Epoch {epoch+1}/{epochs} 完成 - Train Loss: {train_loss:.4f}, Test Loss: {test_loss:.4f}",
|
||
progress=epoch_progress, metrics=current_metrics)
|
||
|
||
# 定期保存检查点
|
||
if (epoch + 1) % checkpoint_interval == 0 or epoch == epochs - 1:
|
||
checkpoint_data = {
|
||
'epoch': epoch + 1,
|
||
'model_state_dict': model.state_dict(),
|
||
'optimizer_state_dict': optimizer.state_dict(),
|
||
'train_loss': train_loss,
|
||
'test_loss': test_loss,
|
||
'train_losses': train_losses,
|
||
'test_losses': test_losses,
|
||
'scaler_X': scaler_X,
|
||
'scaler_y': scaler_y,
|
||
'config': {
|
||
'input_dim': input_dim,
|
||
'output_dim': output_dim,
|
||
'hidden_size': hidden_size,
|
||
'num_heads': num_heads,
|
||
'dropout': dropout_rate,
|
||
'num_blocks': num_blocks,
|
||
'embed_dim': embed_dim,
|
||
'dense_dim': dense_dim,
|
||
'sequence_length': LOOK_BACK,
|
||
'forecast_horizon': FORECAST_HORIZON,
|
||
'model_type': 'mlstm'
|
||
},
|
||
'training_info': {
|
||
'product_id': product_id,
|
||
'product_name': product_name,
|
||
'training_mode': training_mode,
|
||
'store_id': store_id,
|
||
'aggregation_method': aggregation_method,
|
||
'training_scope': training_scope,
|
||
'timestamp': time.time()
|
||
}
|
||
}
|
||
|
||
# 保存检查点
|
||
save_checkpoint(checkpoint_data, epoch + 1, path_info)
|
||
|
||
# 如果是最佳模型,额外保存一份
|
||
if test_loss < best_loss:
|
||
best_loss = test_loss
|
||
save_checkpoint(checkpoint_data, 'best', path_info)
|
||
emit_progress(f"💾 保存最佳模型检查点 (epoch {epoch+1}, test_loss: {test_loss:.4f})")
|
||
epochs_no_improve = 0
|
||
else:
|
||
epochs_no_improve += 1
|
||
|
||
emit_progress(f"💾 保存训练检查点 epoch_{epoch+1}")
|
||
|
||
if (epoch + 1) % 10 == 0:
|
||
print(f"Epoch {epoch+1}/{epochs}, Train Loss: {train_loss:.4f}, Test Loss: {test_loss:.4f}", flush=True)
|
||
|
||
# 提前停止逻辑
|
||
if epochs_no_improve >= patience:
|
||
emit_progress(f"连续 {patience} 个epoch测试损失未改善,提前停止训练。")
|
||
break
|
||
|
||
# 计算训练时间
|
||
training_time = time.time() - start_time
|
||
|
||
emit_progress("生成损失曲线...", progress=95)
|
||
|
||
# 从 path_info 获取损失曲线保存路径
|
||
loss_curve_path = path_info['loss_curve_path']
|
||
|
||
# 绘制损失曲线并保存到模型目录
|
||
plt.figure(figsize=(10, 6))
|
||
plt.plot(train_losses, label='Training Loss')
|
||
plt.plot(test_losses, label='Test Loss')
|
||
title_suffix = f" - {training_scope}" if store_id else " - 全局模型"
|
||
plt.title(f'mLSTM 模型训练损失曲线 - {product_name} (v{version}){title_suffix}')
|
||
plt.xlabel('Epoch')
|
||
plt.ylabel('Loss')
|
||
plt.legend()
|
||
plt.grid(True)
|
||
plt.savefig(loss_curve_path, dpi=300, bbox_inches='tight')
|
||
plt.close()
|
||
|
||
print(f"损失曲线已保存到: {loss_curve_path}")
|
||
|
||
emit_progress("模型评估中...", progress=98)
|
||
|
||
# 评估模型
|
||
model.eval()
|
||
with torch.no_grad():
|
||
test_pred = model(testX_tensor.to(DEVICE)).cpu().numpy()
|
||
test_true = testY
|
||
|
||
# 反归一化预测结果和真实值
|
||
test_pred_inv = scaler_y.inverse_transform(test_pred)
|
||
test_true_inv = scaler_y.inverse_transform(test_true)
|
||
|
||
# 计算评估指标
|
||
metrics = evaluate_model(test_true_inv, test_pred_inv)
|
||
metrics['training_time'] = training_time
|
||
metrics['version'] = version
|
||
|
||
# 打印评估指标
|
||
print("\n模型评估指标:")
|
||
print(f"MSE: {metrics['mse']:.4f}")
|
||
print(f"RMSE: {metrics['rmse']:.4f}")
|
||
print(f"MAE: {metrics['mae']:.4f}")
|
||
print(f"R²: {metrics['r2']:.4f}")
|
||
print(f"MAPE: {metrics['mape']:.2f}%")
|
||
print(f"训练时间: {training_time:.2f}秒")
|
||
|
||
emit_progress("保存最终模型...", progress=99)
|
||
|
||
# 保存最终训练完成的模型(基于最终epoch)
|
||
final_model_data = {
|
||
'epoch': epochs, # 最终epoch
|
||
'model_state_dict': model.state_dict(),
|
||
'optimizer_state_dict': optimizer.state_dict(),
|
||
'train_loss': train_losses[-1],
|
||
'test_loss': test_losses[-1],
|
||
'train_losses': train_losses,
|
||
'test_losses': test_losses,
|
||
'scaler_X': scaler_X,
|
||
'scaler_y': scaler_y,
|
||
'config': {
|
||
'input_dim': input_dim,
|
||
'output_dim': output_dim,
|
||
'hidden_size': hidden_size,
|
||
'num_heads': num_heads,
|
||
'dropout': dropout_rate,
|
||
'num_blocks': num_blocks,
|
||
'embed_dim': embed_dim,
|
||
'dense_dim': dense_dim,
|
||
'sequence_length': LOOK_BACK,
|
||
'forecast_horizon': FORECAST_HORIZON,
|
||
'model_type': 'mlstm'
|
||
},
|
||
'metrics': metrics,
|
||
'loss_curve_path': loss_curve_path,
|
||
'training_info': {
|
||
'product_id': product_id,
|
||
'product_name': product_name,
|
||
'training_mode': training_mode,
|
||
'store_id': store_id,
|
||
'aggregation_method': aggregation_method,
|
||
'training_scope': training_scope,
|
||
'timestamp': time.time(),
|
||
'training_completed': True
|
||
}
|
||
}
|
||
|
||
# 保存最终模型到 model.pth
|
||
final_model_path = path_info['model_path']
|
||
torch.save(final_model_data, final_model_path)
|
||
print(f"[mLSTM] 最终模型已保存: {final_model_path}", flush=True)
|
||
|
||
# 发送训练完成消息
|
||
final_metrics = {
|
||
'mse': metrics['mse'],
|
||
'rmse': metrics['rmse'],
|
||
'mae': metrics['mae'],
|
||
'r2': metrics['r2'],
|
||
'mape': metrics['mape'],
|
||
'training_time': training_time,
|
||
'final_epoch': epochs,
|
||
'model_path': final_model_path
|
||
}
|
||
|
||
emit_progress(f"✅ mLSTM模型训练完成!最终epoch: {epochs} 已保存", progress=100, metrics=final_metrics)
|
||
|
||
return model, metrics, epochs, final_model_path |