nakano-tomofumi.hatenablog.com
上記のように、もう使わない予定だが、エラーが出たので貼り付ける。
backfill で deadlocked エラー
Traceback (most recent call last):
File "/XXX/bin/airflow", line 28, in <module>
args.func(args)
File "/XXX/lib/python2.7/site-packages/airflow/bin/cli.py", line 167, in backfill
pool=args.pool)
File "/XXX/lib/python2.7/site-packages/airflow/models.py", line 3330, in run
job.run()
File "/XXX/lib/python2.7/site-packages/airflow/jobs.py", line 200, in run
self._execute()
File "/XXX/lib/python2.7/site-packages/airflow/jobs.py", line 2031, in _execute
raise AirflowException(err)
airflow.exceptions.AirflowException: ---------------------------------------------------
BackfillJob is deadlocked. These tasks have succeeded:
set([(u'dag_name', u'dag_name', datetime.datetime(2017, 6, 6, 0, 0)), (u'dag_name', u'task_name0', datetime.datetime(2017, 6, 6, 0, 0))])
These tasks have started:
{}
These tasks have failed:
set([])
These tasks are skipped:
set([])
These tasks are deadlocked:
set([<TaskInstance: dag_name.task_name1 2017-06-06 00:00:00 [scheduled]>, <TaskInstance: dag_name.task_name2 2017-06-06 00:00:00 [up_for_retry]>, <TaskInstance: dag_name.task_name3 2017-06-06 00:00:00 [scheduled]>, <TaskInstance: dag_name.task_name4 2017-06-06 00:00:00 [scheduled]>])
もう一度実行したらうまくいった。
何がデッドロックなのかは分からない。もしかしたら、仮想マシンの共有ディレクトリを使っているので、その関係上 sqlite などの更新が間に合わずおかしくなっているのかもしれない。
まとめは、