597e83e10616af033007ec2be8df5a0f13ddf399
[asterisk/asterisk.git] / main / threadpool.c
1 /*
2  * Asterisk -- An open source telephony toolkit.
3  *
4  * Copyright (C) 2012-2013, Digium, Inc.
5  *
6  * Mark Michelson <mmmichelson@digium.com>
7  *
8  * See http://www.asterisk.org for more information about
9  * the Asterisk project. Please do not directly contact
10  * any of the maintainers of this project for assistance;
11  * the project provides a web site, mailing lists and IRC
12  * channels for your use.
13  *
14  * This program is free software, distributed under the terms of
15  * the GNU General Public License Version 2. See the LICENSE file
16  * at the top of the source tree.
17  */
18
19
20 #include "asterisk.h"
21
22 #include "asterisk/threadpool.h"
23 #include "asterisk/taskprocessor.h"
24 #include "asterisk/astobj2.h"
25 #include "asterisk/utils.h"
26
27 /* Needs to stay prime if increased */
28 #define THREAD_BUCKETS 89
29
30 /*!
31  * \brief An opaque threadpool structure
32  *
33  * A threadpool is a collection of threads that execute
34  * tasks from a common queue.
35  */
36 struct ast_threadpool {
37         /*! Threadpool listener */
38         struct ast_threadpool_listener *listener;
39         /*!
40          * \brief The container of active threads.
41          * Active threads are those that are currently running tasks
42          */
43         struct ao2_container *active_threads;
44         /*!
45          * \brief The container of idle threads.
46          * Idle threads are those that are currenly waiting to run tasks
47          */
48         struct ao2_container *idle_threads;
49         /*!
50          * \brief The container of zombie threads.
51          * Zombie threads may be running tasks, but they are scheduled to die soon
52          */
53         struct ao2_container *zombie_threads;
54         /*!
55          * \brief The main taskprocessor
56          *
57          * Tasks that are queued in this taskprocessor are
58          * doled out to the worker threads. Worker threads that
59          * execute tasks from the threadpool are executing tasks
60          * in this taskprocessor.
61          *
62          * The threadpool itself is actually the private data for
63          * this taskprocessor's listener. This way, as taskprocessor
64          * changes occur, the threadpool can alert its listeners
65          * appropriately.
66          */
67         struct ast_taskprocessor *tps;
68         /*!
69          * \brief The control taskprocessor
70          *
71          * This is a standard taskprocessor that uses the default
72          * taskprocessor listener. In other words, all tasks queued to
73          * this taskprocessor have a single thread that executes the
74          * tasks.
75          *
76          * All tasks that modify the state of the threadpool and all tasks
77          * that call out to threadpool listeners are pushed to this
78          * taskprocessor.
79          *
80          * For instance, when the threadpool changes sizes, a task is put
81          * into this taskprocessor to do so. When it comes time to tell the
82          * threadpool listener that worker threads have changed state,
83          * the task is placed in this taskprocessor.
84          *
85          * This is done for three main reasons
86          * 1) It ensures that listeners are given an accurate portrayal
87          * of the threadpool's current state. In other words, when a listener
88          * gets told a count of active, idle and zombie threads, it does not
89          * need to worry that internal state of the threadpool might be different
90          * from what it has been told.
91          * 2) It minimizes the locking required in both the threadpool and in
92          * threadpool listener's callbacks.
93          * 3) It ensures that listener callbacks are called in the same order
94          * that the threadpool had its state change.
95          */
96         struct ast_taskprocessor *control_tps;
97         /*! True if the threadpool is in the process of shutting down */
98         int shutting_down;
99         /*! Threadpool-specific options */
100         struct ast_threadpool_options options;
101 };
102
103 /*!
104  * \brief listener for a threadpool
105  *
106  * The listener is notified of changes in a threadpool. It can
107  * react by doing things like increasing the number of threads
108  * in the pool
109  */
110 struct ast_threadpool_listener {
111         /*! Callbacks called by the threadpool */
112         const struct ast_threadpool_listener_callbacks *callbacks;
113         /*! User data for the listener */
114         void *user_data;
115 };
116
117 /*!
118  * \brief states for worker threads
119  */
120 enum worker_state {
121         /*! The worker is either active or idle */
122         ALIVE,
123         /*!
124          * The worker has been asked to shut down but
125          * may still be in the process of executing tasks.
126          * This transition happens when the threadpool needs
127          * to shrink and needs to kill active threads in order
128          * to do so.
129          */
130         ZOMBIE,
131         /*!
132          * The worker has been asked to shut down. Typically
133          * only idle threads go to this state directly, but
134          * active threads may go straight to this state when
135          * the threadpool is shut down.
136          */
137         DEAD,
138 };
139
140 /*!
141  * A thread that executes threadpool tasks
142  */
143 struct worker_thread {
144         /*! A unique (within a run of Asterisk) ID for the thread. Used for hashing and searching */
145         int id;
146         /*! Condition used in conjunction with state changes */
147         ast_cond_t cond;
148         /*! Lock used alongside the condition for state changes */
149         ast_mutex_t lock;
150         /*! The actual thread that is executing tasks */
151         pthread_t thread;
152         /*! A pointer to the threadpool. Needed to be able to execute tasks */
153         struct ast_threadpool *pool;
154         /*! The current state of the worker thread */
155         enum worker_state state;
156         /*! A boolean used to determine if an idle thread should become active */
157         int wake_up;
158         /*! Options for this threadpool */
159         struct ast_threadpool_options options;
160 };
161
162 /* Worker thread forward declarations. See definitions for documentation */
163 static int worker_thread_hash(const void *obj, int flags);
164 static int worker_thread_cmp(void *obj, void *arg, int flags);
165 static void worker_thread_destroy(void *obj);
166 static void worker_active(struct worker_thread *worker);
167 static void *worker_start(void *arg);
168 static struct worker_thread *worker_thread_alloc(struct ast_threadpool *pool);
169 static int worker_thread_start(struct worker_thread *worker);
170 static int worker_idle(struct worker_thread *worker);
171 static void worker_set_state(struct worker_thread *worker, enum worker_state state);
172 static void worker_shutdown(struct worker_thread *worker);
173
174 /*!
175  * \brief Notify the threadpool listener that the state has changed.
176  *
177  * This notifies the threadpool listener via its state_changed callback.
178  * \param pool The threadpool whose state has changed
179  */
180 static void threadpool_send_state_changed(struct ast_threadpool *pool)
181 {
182         int active_size = ao2_container_count(pool->active_threads);
183         int idle_size = ao2_container_count(pool->idle_threads);
184
185         if (pool->listener && pool->listener->callbacks->state_changed) {
186                 pool->listener->callbacks->state_changed(pool, pool->listener, active_size, idle_size);
187         }
188 }
189
190 /*!
191  * \brief Struct used for queued operations involving worker state changes
192  */
193 struct thread_worker_pair {
194         /*! Threadpool that contains the worker whose state has changed */
195         struct ast_threadpool *pool;
196         /*! Worker whose state has changed */
197         struct worker_thread *worker;
198 };
199
200 /*!
201  * \brief Destructor for thread_worker_pair
202  */
203 static void thread_worker_pair_destructor(void *obj)
204 {
205         struct thread_worker_pair *pair = obj;
206         ao2_ref(pair->worker, -1);
207 }
208
209 /*!
210  * \brief Allocate and initialize a thread_worker_pair
211  * \param pool Threadpool to assign to the thread_worker_pair
212  * \param worker Worker thread to assign to the thread_worker_pair
213  */
214 static struct thread_worker_pair *thread_worker_pair_alloc(struct ast_threadpool *pool,
215                 struct worker_thread *worker)
216 {
217         struct thread_worker_pair *pair = ao2_alloc(sizeof(*pair), thread_worker_pair_destructor);
218         if (!pair) {
219                 return NULL;
220         }
221         pair->pool = pool;
222         ao2_ref(worker, +1);
223         pair->worker = worker;
224         return pair;
225 }
226
227 /*!
228  * \brief Move a worker thread from the active container to the idle container.
229  *
230  * This function is called from the threadpool's control taskprocessor thread.
231  * \param data A thread_worker_pair containing the threadpool and the worker to move.
232  * \return 0
233  */
234 static int queued_active_thread_idle(void *data)
235 {
236         struct thread_worker_pair *pair = data;
237
238         ao2_link(pair->pool->idle_threads, pair->worker);
239         ao2_unlink(pair->pool->active_threads, pair->worker);
240
241         threadpool_send_state_changed(pair->pool);
242
243         ao2_ref(pair, -1);
244         return 0;
245 }
246
247 /*!
248  * \brief Queue a task to move a thread from the active list to the idle list
249  *
250  * This is called by a worker thread when it runs out of tasks to perform and
251  * goes idle.
252  * \param pool The threadpool to which the worker belongs
253  * \param worker The worker thread that has gone idle
254  */
255 static void threadpool_active_thread_idle(struct ast_threadpool *pool,
256                 struct worker_thread *worker)
257 {
258         struct thread_worker_pair *pair;
259         SCOPED_AO2LOCK(lock, pool);
260         if (pool->shutting_down) {
261                 return;
262         }
263         pair = thread_worker_pair_alloc(pool, worker);
264         if (!pair) {
265                 return;
266         }
267         ast_taskprocessor_push(pool->control_tps, queued_active_thread_idle, pair);
268 }
269
270 /*!
271  * \brief Kill a zombie thread
272  *
273  * This runs from the threadpool's control taskprocessor thread.
274  *
275  * \param data A thread_worker_pair containing the threadpool and the zombie thread
276  * \return 0
277  */
278 static int queued_zombie_thread_dead(void *data)
279 {
280         struct thread_worker_pair *pair = data;
281
282         ao2_unlink(pair->pool->zombie_threads, pair->worker);
283         threadpool_send_state_changed(pair->pool);
284
285         ao2_ref(pair, -1);
286         return 0;
287 }
288
289 /*!
290  * \brief Queue a task to kill a zombie thread
291  *
292  * This is called by a worker thread when it acknowledges that it is time for
293  * it to die.
294  */
295 static void threadpool_zombie_thread_dead(struct ast_threadpool *pool,
296                 struct worker_thread *worker)
297 {
298         struct thread_worker_pair *pair;
299         SCOPED_AO2LOCK(lock, pool);
300         if (pool->shutting_down) {
301                 return;
302         }
303         pair = thread_worker_pair_alloc(pool, worker);
304         if (!pair) {
305                 return;
306         }
307         ast_taskprocessor_push(pool->control_tps, queued_zombie_thread_dead, pair);
308 }
309
310 static int queued_idle_thread_dead(void *data)
311 {
312         struct thread_worker_pair *pair = data;
313
314         ao2_unlink(pair->pool->idle_threads, pair->worker);
315         threadpool_send_state_changed(pair->pool);
316
317         ao2_ref(pair, -1);
318         return 0;
319 }
320
321 static void threadpool_idle_thread_dead(struct ast_threadpool *pool,
322                 struct worker_thread *worker)
323 {
324         struct thread_worker_pair *pair;
325         SCOPED_AO2LOCK(lock, pool);
326         if (pool->shutting_down) {
327                 return;
328         }
329         pair = thread_worker_pair_alloc(pool, worker);
330         if (!pair) {
331                 return;
332         }
333         ast_taskprocessor_push(pool->control_tps, queued_idle_thread_dead, pair);
334 }
335
336 /*!
337  * \brief Execute a task in the threadpool
338  *
339  * This is the function that worker threads call in order to execute tasks
340  * in the threadpool
341  *
342  * \param pool The pool to which the tasks belong.
343  * \retval 0 Either the pool has been shut down or there are no tasks.
344  * \retval 1 There are still tasks remaining in the pool.
345  */
346 static int threadpool_execute(struct ast_threadpool *pool)
347 {
348         ao2_lock(pool);
349         if (!pool->shutting_down) {
350                 ao2_unlock(pool);
351                 return ast_taskprocessor_execute(pool->tps);
352         }
353         ao2_unlock(pool);
354         return 0;
355 }
356
357 /*!
358  * \brief Destroy a threadpool's components.
359  *
360  * This is the destructor called automatically when the threadpool's
361  * reference count reaches zero. This is not to be confused with
362  * threadpool_destroy.
363  *
364  * By the time this actually gets called, most of the cleanup has already
365  * been done in the pool. The only thing left to do is to release the
366  * final reference to the threadpool listener.
367  *
368  * \param obj The pool to destroy
369  */
370 static void threadpool_destructor(void *obj)
371 {
372         struct ast_threadpool *pool = obj;
373         ao2_cleanup(pool->listener);
374 }
375
376 /*
377  * \brief Allocate a threadpool
378  *
379  * This is implemented as a taskprocessor listener's alloc callback. This
380  * is because the threadpool exists as the private data on a taskprocessor
381  * listener.
382  *
383  * \param name The name of the threadpool.
384  * \param options The options the threadpool uses.
385  * \retval NULL Could not initialize threadpool properly
386  * \retval non-NULL The newly-allocated threadpool
387  */
388 static struct ast_threadpool *threadpool_alloc(const char *name, const struct ast_threadpool_options *options)
389 {
390         RAII_VAR(struct ast_threadpool *, pool, NULL, ao2_cleanup);
391         struct ast_str *control_tps_name;
392
393         pool = ao2_alloc(sizeof(*pool), threadpool_destructor);
394         control_tps_name = ast_str_create(64);
395         if (!pool || !control_tps_name) {
396                 ast_free(control_tps_name);
397                 return NULL;
398         }
399
400         ast_str_set(&control_tps_name, 0, "%s-control", name);
401
402         pool->control_tps = ast_taskprocessor_get(ast_str_buffer(control_tps_name), TPS_REF_DEFAULT);
403         ast_free(control_tps_name);
404         if (!pool->control_tps) {
405                 return NULL;
406         }
407         pool->active_threads = ao2_container_alloc(THREAD_BUCKETS, worker_thread_hash, worker_thread_cmp);
408         if (!pool->active_threads) {
409                 return NULL;
410         }
411         pool->idle_threads = ao2_container_alloc(THREAD_BUCKETS, worker_thread_hash, worker_thread_cmp);
412         if (!pool->idle_threads) {
413                 return NULL;
414         }
415         pool->zombie_threads = ao2_container_alloc(THREAD_BUCKETS, worker_thread_hash, worker_thread_cmp);
416         if (!pool->zombie_threads) {
417                 return NULL;
418         }
419         pool->options = *options;
420
421         ao2_ref(pool, +1);
422         return pool;
423 }
424
425 static int threadpool_tps_start(struct ast_taskprocessor_listener *listener)
426 {
427         return 0;
428 }
429
430 /*!
431  * \brief helper used for queued task when tasks are pushed
432  */
433 struct task_pushed_data {
434         /*! Pool into which a task was pushed */
435         struct ast_threadpool *pool;
436         /*! Indicator of whether the pool had no tasks prior to the new task being added */
437         int was_empty;
438 };
439
440 /*!
441  * \brief Allocate and initialize a task_pushed_data
442  * \param pool The threadpool to set in the task_pushed_data
443  * \param was_empty The was_empty value to set in the task_pushed_data
444  * \retval NULL Unable to allocate task_pushed_data
445  * \retval non-NULL The newly-allocated task_pushed_data
446  */
447 static struct task_pushed_data *task_pushed_data_alloc(struct ast_threadpool *pool,
448                 int was_empty)
449 {
450         struct task_pushed_data *tpd = ao2_alloc(sizeof(*tpd), NULL);
451
452         if (!tpd) {
453                 return NULL;
454         }
455         tpd->pool = pool;
456         tpd->was_empty = was_empty;
457         return tpd;
458 }
459
460 /*!
461  * \brief Activate idle threads
462  *
463  * This function always returns CMP_MATCH because all workers that this
464  * function acts on need to be seen as matches so they are unlinked from the
465  * list of idle threads.
466  *
467  * Called as an ao2_callback in the threadpool's control taskprocessor thread.
468  * \param obj The worker to activate
469  * \param arg The pool where the worker belongs
470  * \retval CMP_MATCH
471  */
472 static int activate_thread(void *obj, void *arg, int flags)
473 {
474         struct worker_thread *worker = obj;
475         struct ast_threadpool *pool = arg;
476
477         if (!ao2_link(pool->active_threads, worker)) {
478                 /* If we can't link the idle thread into the active container, then
479                  * we'll just leave the thread idle and not wake it up.
480                  */
481                 ast_log(LOG_WARNING, "Failed to activate thread %d. Remaining idle\n",
482                                 worker->id);
483                 return 0;
484         }
485         worker_set_state(worker, ALIVE);
486         return CMP_MATCH;
487 }
488
489 /*!
490  * \brief Add threads to the threadpool
491  *
492  * This function is called from the threadpool's control taskprocessor thread.
493  * \param pool The pool that is expanding
494  * \delta The number of threads to add to the pool
495  */
496 static void grow(struct ast_threadpool *pool, int delta)
497 {
498         int i;
499
500         int current_size = ao2_container_count(pool->active_threads) +
501                 ao2_container_count(pool->idle_threads);
502
503         if (pool->options.max_size && current_size + delta > pool->options.max_size) {
504                 delta = pool->options.max_size - current_size;
505         }
506
507         ast_debug(3, "Increasing threadpool %s's size by %d\n",
508                         ast_taskprocessor_name(pool->tps), delta);
509
510         for (i = 0; i < delta; ++i) {
511                 struct worker_thread *worker = worker_thread_alloc(pool);
512                 if (!worker) {
513                         return;
514                 }
515                 if (ao2_link(pool->idle_threads, worker)) {
516                         if (worker_thread_start(worker)) {
517                                 ast_log(LOG_ERROR, "Unable to start worker thread %d. Destroying.\n", worker->id);
518                                 ao2_unlink(pool->active_threads, worker);
519                         }
520                 } else {
521                         ast_log(LOG_WARNING, "Failed to activate worker thread %d. Destroying.\n", worker->id);
522                 }
523                 ao2_ref(worker, -1);
524         }
525 }
526
527 /*!
528  * \brief Queued task called when tasks are pushed into the threadpool
529  *
530  * This function first calls into the threadpool's listener to let it know
531  * that a task has been pushed. It then wakes up all idle threads and moves
532  * them into the active thread container.
533  * \param data A task_pushed_data
534  * \return 0
535  */
536 static int queued_task_pushed(void *data)
537 {
538         struct task_pushed_data *tpd = data;
539         struct ast_threadpool *pool = tpd->pool;
540         int was_empty = tpd->was_empty;
541
542         if (pool->listener && pool->listener->callbacks->task_pushed) {
543                 pool->listener->callbacks->task_pushed(pool, pool->listener, was_empty);
544         }
545         if (ao2_container_count(pool->idle_threads) == 0) {
546                 if (!pool->options.auto_increment) {
547                         return 0;
548                 }
549                 grow(pool, pool->options.auto_increment);
550         }
551
552         ao2_callback(pool->idle_threads, OBJ_UNLINK | OBJ_NOLOCK | OBJ_NODATA,
553                         activate_thread, pool);
554
555         threadpool_send_state_changed(pool);
556         ao2_ref(tpd, -1);
557         return 0;
558 }
559
560 /*!
561  * \brief Taskprocessor listener callback called when a task is added
562  *
563  * The threadpool uses this opportunity to queue a task on its control taskprocessor
564  * in order to activate idle threads and notify the threadpool listener that the
565  * task has been pushed.
566  * \param listener The taskprocessor listener. The threadpool is the listener's private data
567  * \param was_empty True if the taskprocessor was empty prior to the task being pushed
568  */
569 static void threadpool_tps_task_pushed(struct ast_taskprocessor_listener *listener,
570                 int was_empty)
571 {
572         struct ast_threadpool *pool = ast_taskprocessor_listener_get_user_data(listener);
573         struct task_pushed_data *tpd;
574         SCOPED_AO2LOCK(lock, pool);
575
576         if (pool->shutting_down) {
577                 return;
578         }
579         tpd = task_pushed_data_alloc(pool, was_empty);
580         if (!tpd) {
581                 return;
582         }
583
584         ast_taskprocessor_push(pool->control_tps, queued_task_pushed, tpd);
585 }
586
587 /*!
588  * \brief Queued task that handles the case where the threadpool's taskprocessor is emptied
589  *
590  * This simply lets the threadpool's listener know that the threadpool is devoid of tasks
591  * \param data The pool that has become empty
592  * \return 0
593  */
594 static int queued_emptied(void *data)
595 {
596         struct ast_threadpool *pool = data;
597
598         /* We already checked for existence of this callback when this was queued */
599         pool->listener->callbacks->emptied(pool, pool->listener);
600         return 0;
601 }
602
603 /*!
604  * \brief Taskprocessor listener emptied callback
605  *
606  * The threadpool queues a task to let the threadpool listener know that
607  * the threadpool no longer contains any tasks.
608  * \param listener The taskprocessor listener. The threadpool is the listener's private data.
609  */
610 static void threadpool_tps_emptied(struct ast_taskprocessor_listener *listener)
611 {
612         struct ast_threadpool *pool = ast_taskprocessor_listener_get_user_data(listener);
613         SCOPED_AO2LOCK(lock, pool);
614
615         if (pool->shutting_down) {
616                 return;
617         }
618
619         if (pool->listener && pool->listener->callbacks->emptied) {
620                 ast_taskprocessor_push(pool->control_tps, queued_emptied, pool);
621         }
622 }
623
624 /*!
625  * \brief Taskprocessor listener shutdown callback
626  *
627  * The threadpool will shut down and destroy all of its worker threads when
628  * this is called back. By the time this gets called, the taskprocessor's
629  * control taskprocessor has already been destroyed. Therefore there is no risk
630  * in outright destroying the worker threads here.
631  * \param listener The taskprocessor listener. The threadpool is the listener's private data.
632  */
633 static void threadpool_tps_shutdown(struct ast_taskprocessor_listener *listener)
634 {
635         struct ast_threadpool *pool = ast_taskprocessor_listener_get_user_data(listener);
636
637         if (pool->listener && pool->listener->callbacks->shutdown) {
638                 pool->listener->callbacks->shutdown(pool->listener);
639         }
640         ao2_cleanup(pool->active_threads);
641         ao2_cleanup(pool->idle_threads);
642         ao2_cleanup(pool->zombie_threads);
643         ao2_cleanup(pool);
644 }
645
646 /*!
647  * \brief Table of taskprocessor listener callbacks for threadpool's main taskprocessor
648  */
649 static struct ast_taskprocessor_listener_callbacks threadpool_tps_listener_callbacks = {
650         .start = threadpool_tps_start,
651         .task_pushed = threadpool_tps_task_pushed,
652         .emptied = threadpool_tps_emptied,
653         .shutdown = threadpool_tps_shutdown,
654 };
655
656 /*!
657  * \brief ao2 callback to kill a set number of threads.
658  *
659  * Threads will be unlinked from the container as long as the
660  * counter has not reached zero. The counter is decremented with
661  * each thread that is removed.
662  * \param obj The worker thread up for possible destruction
663  * \param arg The counter
664  * \param flags Unused
665  * \retval CMP_MATCH The counter has not reached zero, so this flag should be removed.
666  * \retval CMP_STOP The counter has reached zero so no more threads should be removed.
667  */
668 static int kill_threads(void *obj, void *arg, int flags)
669 {
670         int *num_to_kill = arg;
671
672         if (*num_to_kill > 0) {
673                 --(*num_to_kill);
674                 return CMP_MATCH;
675         } else {
676                 return CMP_STOP;
677         }
678 }
679
680 /*!
681  * \brief ao2 callback to zombify a set number of threads.
682  *
683  * Threads will be zombified as long as as the counter has not reached
684  * zero. The counter is decremented with each thread that is zombified.
685  *
686  * Zombifying a thread involves removing it from its current container,
687  * adding it to the zombie container, and changing the state of the
688  * worker to a zombie
689  *
690  * This callback is called from the threadpool control taskprocessor thread.
691  *
692  * \param obj The worker thread that may be zombified
693  * \param arg The pool to which the worker belongs
694  * \param data The counter
695  * \param flags Unused
696  * \retval CMP_MATCH The zombified thread should be removed from its current container
697  * \retval CMP_STOP Stop attempting to zombify threads
698  */
699 static int zombify_threads(void *obj, void *arg, void *data, int flags)
700 {
701         struct worker_thread *worker = obj;
702         struct ast_threadpool *pool = arg;
703         int *num_to_zombify = data;
704
705         if ((*num_to_zombify)-- > 0) {
706                 if (!ao2_link(pool->zombie_threads, worker)) {
707                         ast_log(LOG_WARNING, "Failed to zombify active thread %d. Thread will remain active\n", worker->id);
708                         return 0;
709                 }
710                 worker_set_state(worker, ZOMBIE);
711                 return CMP_MATCH;
712         } else {
713                 return CMP_STOP;
714         }
715 }
716
717 /*!
718  * \brief Remove threads from the threadpool
719  *
720  * The preference is to kill idle threads. However, if there are
721  * more threads to remove than there are idle threads, then active
722  * threads will be zombified instead.
723  *
724  * This function is called from the threadpool control taskprocessor thread.
725  *
726  * \param pool The threadpool to remove threads from
727  * \param delta The number of threads to remove
728  */
729 static void shrink(struct ast_threadpool *pool, int delta)
730 {
731         /*
732          * Preference is to kill idle threads, but
733          * we'll move on to deactivating active threads
734          * if we have to
735          */
736         int idle_threads = ao2_container_count(pool->idle_threads);
737         int idle_threads_to_kill = MIN(delta, idle_threads);
738         int active_threads_to_zombify = delta - idle_threads_to_kill;
739
740         ast_debug(3, "Destroying %d idle threads in threadpool %s\n", idle_threads_to_kill,
741                         ast_taskprocessor_name(pool->tps));
742
743         ao2_callback(pool->idle_threads, OBJ_UNLINK | OBJ_NOLOCK | OBJ_NODATA | OBJ_MULTIPLE,
744                         kill_threads, &idle_threads_to_kill);
745
746         ast_debug(3, "Destroying %d active threads in threadpool %s\n", active_threads_to_zombify,
747                         ast_taskprocessor_name(pool->tps));
748
749         ao2_callback_data(pool->active_threads, OBJ_UNLINK | OBJ_NOLOCK | OBJ_NODATA | OBJ_MULTIPLE,
750                         zombify_threads, pool, &active_threads_to_zombify);
751 }
752
753 /*!
754  * \brief Helper struct used for queued operations that change the size of the threadpool
755  */
756 struct set_size_data {
757         /*! The pool whose size is to change */
758         struct ast_threadpool *pool;
759         /*! The requested new size of the pool */
760         unsigned int size;
761 };
762
763 /*!
764  * \brief Allocate and initialize a set_size_data
765  * \param pool The pool for the set_size_data
766  * \param size The size to store in the set_size_data
767  */
768 static struct set_size_data *set_size_data_alloc(struct ast_threadpool *pool,
769                 unsigned int size)
770 {
771         struct set_size_data *ssd = ao2_alloc(sizeof(*ssd), NULL);
772         if (!ssd) {
773                 return NULL;
774         }
775
776         ssd->pool = pool;
777         ssd->size = size;
778         return ssd;
779 }
780
781 /*!
782  * \brief Change the size of the threadpool
783  *
784  * This can either result in shrinking or growing the threadpool depending
785  * on the new desired size and the current size.
786  *
787  * This function is run from the threadpool control taskprocessor thread
788  *
789  * \param data A set_size_data used for determining how to act
790  * \return 0
791  */
792 static int queued_set_size(void *data)
793 {
794         RAII_VAR(struct set_size_data *, ssd, data, ao2_cleanup);
795         struct ast_threadpool *pool = ssd->pool;
796         unsigned int num_threads = ssd->size;
797
798         /* We don't count zombie threads as being "live" when potentially resizing */
799         unsigned int current_size = ao2_container_count(pool->active_threads) +
800                 ao2_container_count(pool->idle_threads);
801
802         if (current_size == num_threads) {
803                 ast_debug(3, "Not changing threadpool size since new size %u is the same as current %u\n",
804                           num_threads, current_size);
805                 return 0;
806         }
807
808         if (current_size < num_threads) {
809                 grow(pool, num_threads - current_size);
810                 ao2_callback(pool->idle_threads, OBJ_UNLINK | OBJ_NOLOCK | OBJ_NODATA | OBJ_MULTIPLE,
811                                 activate_thread, pool);
812         } else {
813                 shrink(pool, current_size - num_threads);
814         }
815
816         threadpool_send_state_changed(pool);
817         return 0;
818 }
819
820 void ast_threadpool_set_size(struct ast_threadpool *pool, unsigned int size)
821 {
822         struct set_size_data *ssd;
823         SCOPED_AO2LOCK(lock, pool);
824         if (pool->shutting_down) {
825                 return;
826         }
827
828         ssd = set_size_data_alloc(pool, size);
829         if (!ssd) {
830                 return;
831         }
832
833         ast_taskprocessor_push(pool->control_tps, queued_set_size, ssd);
834 }
835
836 struct ast_threadpool_listener *ast_threadpool_listener_alloc(
837                 const struct ast_threadpool_listener_callbacks *callbacks, void *user_data)
838 {
839         struct ast_threadpool_listener *listener = ao2_alloc(sizeof(*listener), NULL);
840         if (!listener) {
841                 return NULL;
842         }
843         listener->callbacks = callbacks;
844         listener->user_data = user_data;
845         return listener;
846 }
847
848 void *ast_threadpool_listener_get_user_data(const struct ast_threadpool_listener *listener)
849 {
850         return listener->user_data;
851 }
852
853 struct pool_options_pair {
854         struct ast_threadpool *pool;
855         struct ast_threadpool_options options;
856 };
857
858 struct ast_threadpool *ast_threadpool_create(const char *name,
859                 struct ast_threadpool_listener *listener,
860                 const struct ast_threadpool_options *options)
861 {
862         struct ast_taskprocessor *tps;
863         RAII_VAR(struct ast_taskprocessor_listener *, tps_listener, NULL, ao2_cleanup);
864         RAII_VAR(struct ast_threadpool *, pool, NULL, ao2_cleanup);
865
866         pool = threadpool_alloc(name, options);
867         if (!pool) {
868                 return NULL;
869         }
870
871         tps_listener = ast_taskprocessor_listener_alloc(&threadpool_tps_listener_callbacks, pool);
872         if (!tps_listener) {
873                 return NULL;
874         }
875
876         if (options->version != AST_THREADPOOL_OPTIONS_VERSION) {
877                 ast_log(LOG_WARNING, "Incompatible version of threadpool options in use.\n");
878                 return NULL;
879         }
880
881         tps = ast_taskprocessor_create_with_listener(name, tps_listener);
882         if (!tps) {
883                 return NULL;
884         }
885
886         pool->tps = tps;
887         if (listener) {
888                 ao2_ref(listener, +1);
889                 pool->listener = listener;
890         }
891         ast_threadpool_set_size(pool, pool->options.initial_size);
892         ao2_ref(pool, +1);
893         return pool;
894 }
895
896 int ast_threadpool_push(struct ast_threadpool *pool, int (*task)(void *data), void *data)
897 {
898         SCOPED_AO2LOCK(lock, pool);
899         if (!pool->shutting_down) {
900                 return ast_taskprocessor_push(pool->tps, task, data);
901         }
902         return -1;
903 }
904
905 void ast_threadpool_shutdown(struct ast_threadpool *pool)
906 {
907         if (!pool) {
908                 return;
909         }
910         /* Shut down the taskprocessors and everything else just
911          * takes care of itself via the taskprocessor callbacks
912          */
913         ao2_lock(pool);
914         pool->shutting_down = 1;
915         ao2_unlock(pool);
916         ast_taskprocessor_unreference(pool->control_tps);
917         ast_taskprocessor_unreference(pool->tps);
918 }
919
920 /*!
921  * A monotonically increasing integer used for worker
922  * thread identification.
923  */
924 static int worker_id_counter;
925
926 static int worker_thread_hash(const void *obj, int flags)
927 {
928         const struct worker_thread *worker = obj;
929
930         return worker->id;
931 }
932
933 static int worker_thread_cmp(void *obj, void *arg, int flags)
934 {
935         struct worker_thread *worker1 = obj;
936         struct worker_thread *worker2 = arg;
937
938         return worker1->id == worker2->id ? CMP_MATCH : 0;
939 }
940
941 /*!
942  * \brief shut a worker thread down
943  *
944  * Set the worker dead and then wait for its thread
945  * to finish executing.
946  *
947  * \param worker The worker thread to shut down
948  */
949 static void worker_shutdown(struct worker_thread *worker)
950 {
951         worker_set_state(worker, DEAD);
952         if (worker->thread != AST_PTHREADT_NULL) {
953                 pthread_join(worker->thread, NULL);
954                 worker->thread = AST_PTHREADT_NULL;
955         }
956 }
957
958 /*!
959  * \brief Worker thread destructor
960  *
961  * Called automatically when refcount reaches 0. Shuts
962  * down the worker thread and destroys its component
963  * parts
964  */
965 static void worker_thread_destroy(void *obj)
966 {
967         struct worker_thread *worker = obj;
968         ast_debug(3, "Destroying worker thread %d\n", worker->id);
969         worker_shutdown(worker);
970         ast_mutex_destroy(&worker->lock);
971         ast_cond_destroy(&worker->cond);
972 }
973
974 /*!
975  * \brief start point for worker threads
976  *
977  * Worker threads start in the active state but may
978  * immediately go idle if there is no work to be
979  * done
980  *
981  * \param arg The worker thread
982  * \retval NULL
983  */
984 static void *worker_start(void *arg)
985 {
986         struct worker_thread *worker = arg;
987
988         if (worker->options.thread_start) {
989                 worker->options.thread_start();
990         }
991
992         ast_mutex_lock(&worker->lock);
993         while (worker_idle(worker)) {
994                 ast_mutex_unlock(&worker->lock);
995                 worker_active(worker);
996                 ast_mutex_lock(&worker->lock);
997                 if (worker->state != ALIVE) {
998                         break;
999                 }
1000                 threadpool_active_thread_idle(worker->pool, worker);
1001         }
1002         ast_mutex_unlock(&worker->lock);
1003
1004         /* Reaching this portion means the thread is
1005          * on death's door. It may have been killed while
1006          * it was idle, in which case it can just die
1007          * peacefully. If it's a zombie, though, then
1008          * it needs to let the pool know so
1009          * that the thread can be removed from the
1010          * list of zombie threads.
1011          */
1012         if (worker->state == ZOMBIE) {
1013                 threadpool_zombie_thread_dead(worker->pool, worker);
1014         }
1015
1016         if (worker->options.thread_end) {
1017                 worker->options.thread_end();
1018         }
1019         return NULL;
1020 }
1021
1022 /*!
1023  * \brief Allocate and initialize a new worker thread
1024  *
1025  * This will create, initialize, and start the thread.
1026  *
1027  * \param pool The threadpool to which the worker will be added
1028  * \retval NULL Failed to allocate or start the worker thread
1029  * \retval non-NULL The newly-created worker thread
1030  */
1031 static struct worker_thread *worker_thread_alloc(struct ast_threadpool *pool)
1032 {
1033         struct worker_thread *worker = ao2_alloc(sizeof(*worker), worker_thread_destroy);
1034         if (!worker) {
1035                 return NULL;
1036         }
1037         worker->id = ast_atomic_fetchadd_int(&worker_id_counter, 1);
1038         ast_mutex_init(&worker->lock);
1039         ast_cond_init(&worker->cond, NULL);
1040         worker->pool = pool;
1041         worker->thread = AST_PTHREADT_NULL;
1042         worker->state = ALIVE;
1043         worker->options = pool->options;
1044         return worker;
1045 }
1046
1047 static int worker_thread_start(struct worker_thread *worker)
1048 {
1049         return ast_pthread_create(&worker->thread, NULL, worker_start, worker);
1050 }
1051
1052 /*!
1053  * \brief Active loop for worker threads
1054  *
1055  * The worker will stay in this loop for its lifetime,
1056  * executing tasks as they become available. If there
1057  * are no tasks currently available, then the thread
1058  * will go idle.
1059  *
1060  * \param worker The worker thread executing tasks.
1061  */
1062 static void worker_active(struct worker_thread *worker)
1063 {
1064         int alive;
1065
1066         /* The following is equivalent to 
1067          *
1068          * while (threadpool_execute(worker->pool));
1069          *
1070          * However, reviewers have suggested in the past
1071          * doing that can cause optimizers to (wrongly)
1072          * optimize the code away.
1073          */
1074         do {
1075                 alive = threadpool_execute(worker->pool);
1076         } while (alive);
1077 }
1078
1079 /*!
1080  * \brief Idle function for worker threads
1081  *
1082  * The worker waits here until it gets told by the threadpool
1083  * to wake up.
1084  *
1085  * worker is locked before entering this function.
1086  *
1087  * \param worker The idle worker
1088  * \retval 0 The thread is being woken up so that it can conclude.
1089  * \retval non-zero The thread is being woken up to do more work.
1090  */
1091 static int worker_idle(struct worker_thread *worker)
1092 {
1093         struct timeval start = ast_tvnow();
1094         struct timespec end = {
1095                 .tv_sec = start.tv_sec + worker->options.idle_timeout,
1096                 .tv_nsec = start.tv_usec * 1000,
1097         };
1098         while (!worker->wake_up) {
1099                 if (worker->options.idle_timeout <= 0) {
1100                         ast_cond_wait(&worker->cond, &worker->lock);
1101                 } else if (ast_cond_timedwait(&worker->cond, &worker->lock, &end) == ETIMEDOUT) {
1102                         break;
1103                 }
1104         }
1105
1106         if (!worker->wake_up) {
1107                 ast_debug(1, "Worker thread idle timeout reached. Dying.\n");
1108                 threadpool_idle_thread_dead(worker->pool, worker);
1109                 worker->state = DEAD;
1110         }
1111         worker->wake_up = 0;
1112         return worker->state == ALIVE;
1113 }
1114
1115 /*!
1116  * \brief Change a worker's state
1117  *
1118  * The threadpool calls into this function in order to let a worker know
1119  * how it should proceed.
1120  */
1121 static void worker_set_state(struct worker_thread *worker, enum worker_state state)
1122 {
1123         SCOPED_MUTEX(lock, &worker->lock);
1124         worker->state = state;
1125         worker->wake_up = 1;
1126         ast_cond_signal(&worker->cond);
1127 }
1128
1129 struct serializer {
1130         struct ast_threadpool *pool;
1131 };
1132
1133 static void serializer_dtor(void *obj)
1134 {
1135         struct serializer *ser = obj;
1136         ao2_cleanup(ser->pool);
1137         ser->pool = NULL;
1138 }
1139
1140 static struct serializer *serializer_create(struct ast_threadpool *pool)
1141 {
1142         struct serializer *ser;
1143
1144         ser = ao2_alloc_options(sizeof(*ser), serializer_dtor, AO2_ALLOC_OPT_LOCK_NOLOCK);
1145         if (!ser) {
1146                 return NULL;
1147         }
1148         ao2_ref(pool, +1);
1149         ser->pool = pool;
1150         return ser;
1151 }
1152
1153 static int execute_tasks(void *data)
1154 {
1155         struct ast_taskprocessor *tps = data;
1156
1157         while (ast_taskprocessor_execute(tps)) {
1158                 /* No-op */
1159         }
1160
1161         ast_taskprocessor_unreference(tps);
1162         return 0;
1163 }
1164
1165 static void serializer_task_pushed(struct ast_taskprocessor_listener *listener, int was_empty)
1166 {
1167         if (was_empty) {
1168                 struct serializer *ser = ast_taskprocessor_listener_get_user_data(listener);
1169                 struct ast_taskprocessor *tps = ast_taskprocessor_listener_get_tps(listener);
1170
1171                 if (ast_threadpool_push(ser->pool, execute_tasks, tps)) {
1172                         ast_taskprocessor_unreference(tps);
1173                 }
1174         }
1175 }
1176
1177 static int serializer_start(struct ast_taskprocessor_listener *listener)
1178 {
1179         /* No-op */
1180         return 0;
1181 }
1182
1183 static void serializer_shutdown(struct ast_taskprocessor_listener *listener)
1184 {
1185         struct serializer *ser = ast_taskprocessor_listener_get_user_data(listener);
1186         ao2_cleanup(ser);
1187 }
1188
1189 static struct ast_taskprocessor_listener_callbacks serializer_tps_listener_callbacks = {
1190         .task_pushed = serializer_task_pushed,
1191         .start = serializer_start,
1192         .shutdown = serializer_shutdown,
1193 };
1194
1195 struct ast_taskprocessor *ast_threadpool_serializer(const char *name, struct ast_threadpool *pool)
1196 {
1197         RAII_VAR(struct serializer *, ser, NULL, ao2_cleanup);
1198         RAII_VAR(struct ast_taskprocessor_listener *, listener, NULL, ao2_cleanup);
1199         struct ast_taskprocessor *tps = NULL;
1200
1201         ser = serializer_create(pool);
1202         if (!ser) {
1203                 return NULL;
1204         }
1205
1206         listener = ast_taskprocessor_listener_alloc(&serializer_tps_listener_callbacks, ser);
1207         if (!listener) {
1208                 return NULL;
1209         }
1210         ser = NULL; /* ownership transferred to listener */
1211
1212         tps = ast_taskprocessor_create_with_listener(name, listener);
1213         if (!tps) {
1214                 return NULL;
1215         }
1216
1217         return tps;
1218 }