

新闻资讯
技术学院airflow web ui 显示的“last run time”实际指任务数据区间(data interval)的起始时间,而非任务真正触发或完成的时间点;日志和 dag 详情页中显示的时间则对应数据区间的结束时间,二者天然相差一个调度周期(如 hourly dag 相差 1 小时)。
在 Apache Airflow 中,“Last Run Time”这一字段常被误解为 DAG 最近一次实际执行开始或完成的时间,但其真实含义是该次调度所对应 data interval 的起始时间(data_interval_start)。而你在 DAG 详情页、任务日志及运行记录中看到的时间戳(例如 2025-05-01T09:00:00+00:00),绝大多数情况下反映的是 data_interval_end —— 即该次调度所处理的数据时间窗口的结束时刻。
以一个 schedule_interval='@hourly' 的 DAG 为例:
_interval_end = 2025-05-01T09:00:00 → 显示为任务实例时间、日志时间、DAG 运行时间戳 这是 Airflow 的核心设计原则,并非 Bug,而是为了明确区分「处理哪段数据」与「何时处理这段数据」。自 Airflow 2.2 起,UI 已逐步强化对 data_interval_start / data_interval_end 的显式标注(如 DAG Run 页面顶部时间栏会同时显示两者)。
✅ 验证方式(在 DAG 中打印上下文):
def print_interval(**context):
print("Data Interval Start:", context["data_interval_start"])
print("Data Interval End: ", context["data_interval_end"])
print("Execution Date (deprecated):", context["execution_date"]) # 已弃用,等价于 data_interval_start
task = PythonOperator(
task_id="debug_interval",
python_callable=print_interval,
dag=dag
)⚠️ 注意事项:
简言之:“Last Run Time”不是“最后跑的时间”,而是“最后跑的那个数据窗口从什么时候开始”。 理解 data interval 是掌握 Airflow 时间语义的关键起点。