ARI: Add ability to raise arbitrary User Events
[asterisk/asterisk.git] / main / threadpool.c
1 /*
2  * Asterisk -- An open source telephony toolkit.
3  *
4  * Copyright (C) 2012-2013, Digium, Inc.
5  *
6  * Mark Michelson <mmmichelson@digium.com>
7  *
8  * See http://www.asterisk.org for more information about
9  * the Asterisk project. Please do not directly contact
10  * any of the maintainers of this project for assistance;
11  * the project provides a web site, mailing lists and IRC
12  * channels for your use.
13  *
14  * This program is free software, distributed under the terms of
15  * the GNU General Public License Version 2. See the LICENSE file
16  * at the top of the source tree.
17  */
18
19
20 #include "asterisk.h"
21
22 #include "asterisk/threadpool.h"
23 #include "asterisk/taskprocessor.h"
24 #include "asterisk/astobj2.h"
25 #include "asterisk/utils.h"
26
27 /* Needs to stay prime if increased */
28 #define THREAD_BUCKETS 89
29
30 /*!
31  * \brief An opaque threadpool structure
32  *
33  * A threadpool is a collection of threads that execute
34  * tasks from a common queue.
35  */
36 struct ast_threadpool {
37         /*! Threadpool listener */
38         struct ast_threadpool_listener *listener;
39         /*!
40          * \brief The container of active threads.
41          * Active threads are those that are currently running tasks
42          */
43         struct ao2_container *active_threads;
44         /*!
45          * \brief The container of idle threads.
46          * Idle threads are those that are currenly waiting to run tasks
47          */
48         struct ao2_container *idle_threads;
49         /*!
50          * \brief The container of zombie threads.
51          * Zombie threads may be running tasks, but they are scheduled to die soon
52          */
53         struct ao2_container *zombie_threads;
54         /*!
55          * \brief The main taskprocessor
56          *
57          * Tasks that are queued in this taskprocessor are
58          * doled out to the worker threads. Worker threads that
59          * execute tasks from the threadpool are executing tasks
60          * in this taskprocessor.
61          *
62          * The threadpool itself is actually the private data for
63          * this taskprocessor's listener. This way, as taskprocessor
64          * changes occur, the threadpool can alert its listeners
65          * appropriately.
66          */
67         struct ast_taskprocessor *tps;
68         /*!
69          * \brief The control taskprocessor
70          *
71          * This is a standard taskprocessor that uses the default
72          * taskprocessor listener. In other words, all tasks queued to
73          * this taskprocessor have a single thread that executes the
74          * tasks.
75          *
76          * All tasks that modify the state of the threadpool and all tasks
77          * that call out to threadpool listeners are pushed to this
78          * taskprocessor.
79          *
80          * For instance, when the threadpool changes sizes, a task is put
81          * into this taskprocessor to do so. When it comes time to tell the
82          * threadpool listener that worker threads have changed state,
83          * the task is placed in this taskprocessor.
84          *
85          * This is done for three main reasons
86          * 1) It ensures that listeners are given an accurate portrayal
87          * of the threadpool's current state. In other words, when a listener
88          * gets told a count of active, idle and zombie threads, it does not
89          * need to worry that internal state of the threadpool might be different
90          * from what it has been told.
91          * 2) It minimizes the locking required in both the threadpool and in
92          * threadpool listener's callbacks.
93          * 3) It ensures that listener callbacks are called in the same order
94          * that the threadpool had its state change.
95          */
96         struct ast_taskprocessor *control_tps;
97         /*! True if the threadpool is in the process of shutting down */
98         int shutting_down;
99         /*! Threadpool-specific options */
100         struct ast_threadpool_options options;
101 };
102
103 /*!
104  * \brief listener for a threadpool
105  *
106  * The listener is notified of changes in a threadpool. It can
107  * react by doing things like increasing the number of threads
108  * in the pool
109  */
110 struct ast_threadpool_listener {
111         /*! Callbacks called by the threadpool */
112         const struct ast_threadpool_listener_callbacks *callbacks;
113         /*! User data for the listener */
114         void *user_data;
115 };
116
117 /*!
118  * \brief states for worker threads
119  */
120 enum worker_state {
121         /*! The worker is either active or idle */
122         ALIVE,
123         /*!
124          * The worker has been asked to shut down but
125          * may still be in the process of executing tasks.
126          * This transition happens when the threadpool needs
127          * to shrink and needs to kill active threads in order
128          * to do so.
129          */
130         ZOMBIE,
131         /*!
132          * The worker has been asked to shut down. Typically
133          * only idle threads go to this state directly, but
134          * active threads may go straight to this state when
135          * the threadpool is shut down.
136          */
137         DEAD,
138 };
139
140 /*!
141  * A thread that executes threadpool tasks
142  */
143 struct worker_thread {
144         /*! A unique (within a run of Asterisk) ID for the thread. Used for hashing and searching */
145         int id;
146         /*! Condition used in conjunction with state changes */
147         ast_cond_t cond;
148         /*! Lock used alongside the condition for state changes */
149         ast_mutex_t lock;
150         /*! The actual thread that is executing tasks */
151         pthread_t thread;
152         /*! A pointer to the threadpool. Needed to be able to execute tasks */
153         struct ast_threadpool *pool;
154         /*! The current state of the worker thread */
155         enum worker_state state;
156         /*! A boolean used to determine if an idle thread should become active */
157         int wake_up;
158         /*! Options for this threadpool */
159         struct ast_threadpool_options options;
160 };
161
162 /* Worker thread forward declarations. See definitions for documentation */
163 static int worker_thread_hash(const void *obj, int flags);
164 static int worker_thread_cmp(void *obj, void *arg, int flags);
165 static void worker_thread_destroy(void *obj);
166 static void worker_active(struct worker_thread *worker);
167 static void *worker_start(void *arg);
168 static struct worker_thread *worker_thread_alloc(struct ast_threadpool *pool);
169 static int worker_thread_start(struct worker_thread *worker);
170 static int worker_idle(struct worker_thread *worker);
171 static void worker_set_state(struct worker_thread *worker, enum worker_state state);
172 static void worker_shutdown(struct worker_thread *worker);
173
174 /*!
175  * \brief Notify the threadpool listener that the state has changed.
176  *
177  * This notifies the threadpool listener via its state_changed callback.
178  * \param pool The threadpool whose state has changed
179  */
180 static void threadpool_send_state_changed(struct ast_threadpool *pool)
181 {
182         int active_size = ao2_container_count(pool->active_threads);
183         int idle_size = ao2_container_count(pool->idle_threads);
184
185         if (pool->listener && pool->listener->callbacks->state_changed) {
186                 pool->listener->callbacks->state_changed(pool, pool->listener, active_size, idle_size);
187         }
188 }
189
190 /*!
191  * \brief Struct used for queued operations involving worker state changes
192  */
193 struct thread_worker_pair {
194         /*! Threadpool that contains the worker whose state has changed */
195         struct ast_threadpool *pool;
196         /*! Worker whose state has changed */
197         struct worker_thread *worker;
198 };
199
200 /*!
201  * \brief Destructor for thread_worker_pair
202  */
203 static void thread_worker_pair_destructor(void *obj)
204 {
205         struct thread_worker_pair *pair = obj;
206         ao2_ref(pair->worker, -1);
207 }
208
209 /*!
210  * \brief Allocate and initialize a thread_worker_pair
211  * \param pool Threadpool to assign to the thread_worker_pair
212  * \param worker Worker thread to assign to the thread_worker_pair
213  */
214 static struct thread_worker_pair *thread_worker_pair_alloc(struct ast_threadpool *pool,
215                 struct worker_thread *worker)
216 {
217         struct thread_worker_pair *pair = ao2_alloc(sizeof(*pair), thread_worker_pair_destructor);
218         if (!pair) {
219                 return NULL;
220         }
221         pair->pool = pool;
222         ao2_ref(worker, +1);
223         pair->worker = worker;
224         return pair;
225 }
226
227 /*!
228  * \brief Move a worker thread from the active container to the idle container.
229  *
230  * This function is called from the threadpool's control taskprocessor thread.
231  * \param data A thread_worker_pair containing the threadpool and the worker to move.
232  * \return 0
233  */
234 static int queued_active_thread_idle(void *data)
235 {
236         struct thread_worker_pair *pair = data;
237
238         ao2_link(pair->pool->idle_threads, pair->worker);
239         ao2_unlink(pair->pool->active_threads, pair->worker);
240
241         threadpool_send_state_changed(pair->pool);
242
243         ao2_ref(pair, -1);
244         return 0;
245 }
246
247 /*!
248  * \brief Queue a task to move a thread from the active list to the idle list
249  *
250  * This is called by a worker thread when it runs out of tasks to perform and
251  * goes idle.
252  * \param pool The threadpool to which the worker belongs
253  * \param worker The worker thread that has gone idle
254  */
255 static void threadpool_active_thread_idle(struct ast_threadpool *pool,
256                 struct worker_thread *worker)
257 {
258         struct thread_worker_pair *pair;
259         SCOPED_AO2LOCK(lock, pool);
260         if (pool->shutting_down) {
261                 return;
262         }
263         pair = thread_worker_pair_alloc(pool, worker);
264         if (!pair) {
265                 return;
266         }
267         ast_taskprocessor_push(pool->control_tps, queued_active_thread_idle, pair);
268 }
269
270 /*!
271  * \brief Kill a zombie thread
272  *
273  * This runs from the threadpool's control taskprocessor thread.
274  *
275  * \param data A thread_worker_pair containing the threadpool and the zombie thread
276  * \return 0
277  */
278 static int queued_zombie_thread_dead(void *data)
279 {
280         struct thread_worker_pair *pair = data;
281
282         ao2_unlink(pair->pool->zombie_threads, pair->worker);
283         threadpool_send_state_changed(pair->pool);
284
285         ao2_ref(pair, -1);
286         return 0;
287 }
288
289 /*!
290  * \brief Queue a task to kill a zombie thread
291  *
292  * This is called by a worker thread when it acknowledges that it is time for
293  * it to die.
294  */
295 static void threadpool_zombie_thread_dead(struct ast_threadpool *pool,
296                 struct worker_thread *worker)
297 {
298         struct thread_worker_pair *pair;
299         SCOPED_AO2LOCK(lock, pool);
300         if (pool->shutting_down) {
301                 return;
302         }
303         pair = thread_worker_pair_alloc(pool, worker);
304         if (!pair) {
305                 return;
306         }
307         ast_taskprocessor_push(pool->control_tps, queued_zombie_thread_dead, pair);
308 }
309
310 static int queued_idle_thread_dead(void *data)
311 {
312         struct thread_worker_pair *pair = data;
313
314         ao2_unlink(pair->pool->idle_threads, pair->worker);
315         threadpool_send_state_changed(pair->pool);
316
317         ao2_ref(pair, -1);
318         return 0;
319 }
320
321 static void threadpool_idle_thread_dead(struct ast_threadpool *pool,
322                 struct worker_thread *worker)
323 {
324         struct thread_worker_pair *pair;
325         SCOPED_AO2LOCK(lock, pool);
326         if (pool->shutting_down) {
327                 return;
328         }
329         pair = thread_worker_pair_alloc(pool, worker);
330         if (!pair) {
331                 return;
332         }
333         ast_taskprocessor_push(pool->control_tps, queued_idle_thread_dead, pair);
334 }
335
336 /*!
337  * \brief Execute a task in the threadpool
338  *
339  * This is the function that worker threads call in order to execute tasks
340  * in the threadpool
341  *
342  * \param pool The pool to which the tasks belong.
343  * \retval 0 Either the pool has been shut down or there are no tasks.
344  * \retval 1 There are still tasks remaining in the pool.
345  */
346 static int threadpool_execute(struct ast_threadpool *pool)
347 {
348         ao2_lock(pool);
349         if (!pool->shutting_down) {
350                 ao2_unlock(pool);
351                 return ast_taskprocessor_execute(pool->tps);
352         }
353         ao2_unlock(pool);
354         return 0;
355 }
356
357 /*!
358  * \brief Destroy a threadpool's components.
359  *
360  * This is the destructor called automatically when the threadpool's
361  * reference count reaches zero. This is not to be confused with
362  * threadpool_destroy.
363  *
364  * By the time this actually gets called, most of the cleanup has already
365  * been done in the pool. The only thing left to do is to release the
366  * final reference to the threadpool listener.
367  *
368  * \param obj The pool to destroy
369  */
370 static void threadpool_destructor(void *obj)
371 {
372         struct ast_threadpool *pool = obj;
373         ao2_cleanup(pool->listener);
374 }
375
376 /*
377  * \brief Allocate a threadpool
378  *
379  * This is implemented as a taskprocessor listener's alloc callback. This
380  * is because the threadpool exists as the private data on a taskprocessor
381  * listener.
382  *
383  * \param name The name of the threadpool.
384  * \param options The options the threadpool uses.
385  * \retval NULL Could not initialize threadpool properly
386  * \retval non-NULL The newly-allocated threadpool
387  */
388 static void *threadpool_alloc(const char *name, const struct ast_threadpool_options *options)
389 {
390         RAII_VAR(struct ast_threadpool *, pool,
391                         ao2_alloc(sizeof(*pool), threadpool_destructor), ao2_cleanup);
392         struct ast_str *control_tps_name = ast_str_create(64);
393
394         if (!control_tps_name) {
395                 return NULL;
396         }
397
398         ast_str_set(&control_tps_name, 0, "%s-control", name);
399
400         pool->control_tps = ast_taskprocessor_get(ast_str_buffer(control_tps_name), TPS_REF_DEFAULT);
401         ast_free(control_tps_name);
402         if (!pool->control_tps) {
403                 return NULL;
404         }
405         pool->active_threads = ao2_container_alloc(THREAD_BUCKETS, worker_thread_hash, worker_thread_cmp);
406         if (!pool->active_threads) {
407                 return NULL;
408         }
409         pool->idle_threads = ao2_container_alloc(THREAD_BUCKETS, worker_thread_hash, worker_thread_cmp);
410         if (!pool->idle_threads) {
411                 return NULL;
412         }
413         pool->zombie_threads = ao2_container_alloc(THREAD_BUCKETS, worker_thread_hash, worker_thread_cmp);
414         if (!pool->zombie_threads) {
415                 return NULL;
416         }
417         pool->options = *options;
418
419         ao2_ref(pool, +1);
420         return pool;
421 }
422
423 static int threadpool_tps_start(struct ast_taskprocessor_listener *listener)
424 {
425         return 0;
426 }
427
428 /*!
429  * \brief helper used for queued task when tasks are pushed
430  */
431 struct task_pushed_data {
432         /*! Pool into which a task was pushed */
433         struct ast_threadpool *pool;
434         /*! Indicator of whether the pool had no tasks prior to the new task being added */
435         int was_empty;
436 };
437
438 /*!
439  * \brief Allocate and initialize a task_pushed_data
440  * \param pool The threadpool to set in the task_pushed_data
441  * \param was_empty The was_empty value to set in the task_pushed_data
442  * \retval NULL Unable to allocate task_pushed_data
443  * \retval non-NULL The newly-allocated task_pushed_data
444  */
445 static struct task_pushed_data *task_pushed_data_alloc(struct ast_threadpool *pool,
446                 int was_empty)
447 {
448         struct task_pushed_data *tpd = ao2_alloc(sizeof(*tpd), NULL);
449
450         if (!tpd) {
451                 return NULL;
452         }
453         tpd->pool = pool;
454         tpd->was_empty = was_empty;
455         return tpd;
456 }
457
458 /*!
459  * \brief Activate idle threads
460  *
461  * This function always returns CMP_MATCH because all workers that this
462  * function acts on need to be seen as matches so they are unlinked from the
463  * list of idle threads.
464  *
465  * Called as an ao2_callback in the threadpool's control taskprocessor thread.
466  * \param obj The worker to activate
467  * \param arg The pool where the worker belongs
468  * \retval CMP_MATCH
469  */
470 static int activate_thread(void *obj, void *arg, int flags)
471 {
472         struct worker_thread *worker = obj;
473         struct ast_threadpool *pool = arg;
474
475         if (!ao2_link(pool->active_threads, worker)) {
476                 /* If we can't link the idle thread into the active container, then
477                  * we'll just leave the thread idle and not wake it up.
478                  */
479                 ast_log(LOG_WARNING, "Failed to activate thread %d. Remaining idle\n",
480                                 worker->id);
481                 return 0;
482         }
483         worker_set_state(worker, ALIVE);
484         return CMP_MATCH;
485 }
486
487 /*!
488  * \brief Add threads to the threadpool
489  *
490  * This function is called from the threadpool's control taskprocessor thread.
491  * \param pool The pool that is expanding
492  * \delta The number of threads to add to the pool
493  */
494 static void grow(struct ast_threadpool *pool, int delta)
495 {
496         int i;
497
498         int current_size = ao2_container_count(pool->active_threads) +
499                 ao2_container_count(pool->idle_threads);
500
501         if (pool->options.max_size && current_size + delta > pool->options.max_size) {
502                 delta = pool->options.max_size - current_size;
503         }
504
505         ast_debug(3, "Increasing threadpool %s's size by %d\n",
506                         ast_taskprocessor_name(pool->tps), delta);
507
508         for (i = 0; i < delta; ++i) {
509                 struct worker_thread *worker = worker_thread_alloc(pool);
510                 if (!worker) {
511                         return;
512                 }
513                 if (ao2_link(pool->idle_threads, worker)) {
514                         if (worker_thread_start(worker)) {
515                                 ast_log(LOG_ERROR, "Unable to start worker thread %d. Destroying.\n", worker->id);
516                                 ao2_unlink(pool->active_threads, worker);
517                         }
518                 } else {
519                         ast_log(LOG_WARNING, "Failed to activate worker thread %d. Destroying.\n", worker->id);
520                 }
521                 ao2_ref(worker, -1);
522         }
523 }
524
525 /*!
526  * \brief Queued task called when tasks are pushed into the threadpool
527  *
528  * This function first calls into the threadpool's listener to let it know
529  * that a task has been pushed. It then wakes up all idle threads and moves
530  * them into the active thread container.
531  * \param data A task_pushed_data
532  * \return 0
533  */
534 static int queued_task_pushed(void *data)
535 {
536         struct task_pushed_data *tpd = data;
537         struct ast_threadpool *pool = tpd->pool;
538         int was_empty = tpd->was_empty;
539
540         if (pool->listener && pool->listener->callbacks->task_pushed) {
541                 pool->listener->callbacks->task_pushed(pool, pool->listener, was_empty);
542         }
543         if (ao2_container_count(pool->idle_threads) == 0) {
544                 if (!pool->options.auto_increment) {
545                         return 0;
546                 }
547                 grow(pool, pool->options.auto_increment);
548         }
549
550         ao2_callback(pool->idle_threads, OBJ_UNLINK | OBJ_NOLOCK | OBJ_NODATA,
551                         activate_thread, pool);
552
553         threadpool_send_state_changed(pool);
554         ao2_ref(tpd, -1);
555         return 0;
556 }
557
558 /*!
559  * \brief Taskprocessor listener callback called when a task is added
560  *
561  * The threadpool uses this opportunity to queue a task on its control taskprocessor
562  * in order to activate idle threads and notify the threadpool listener that the
563  * task has been pushed.
564  * \param listener The taskprocessor listener. The threadpool is the listener's private data
565  * \param was_empty True if the taskprocessor was empty prior to the task being pushed
566  */
567 static void threadpool_tps_task_pushed(struct ast_taskprocessor_listener *listener,
568                 int was_empty)
569 {
570         struct ast_threadpool *pool = ast_taskprocessor_listener_get_user_data(listener);
571         struct task_pushed_data *tpd;
572         SCOPED_AO2LOCK(lock, pool);
573
574         if (pool->shutting_down) {
575                 return;
576         }
577         tpd = task_pushed_data_alloc(pool, was_empty);
578         if (!tpd) {
579                 return;
580         }
581
582         ast_taskprocessor_push(pool->control_tps, queued_task_pushed, tpd);
583 }
584
585 /*!
586  * \brief Queued task that handles the case where the threadpool's taskprocessor is emptied
587  *
588  * This simply lets the threadpool's listener know that the threadpool is devoid of tasks
589  * \param data The pool that has become empty
590  * \return 0
591  */
592 static int queued_emptied(void *data)
593 {
594         struct ast_threadpool *pool = data;
595
596         /* We already checked for existence of this callback when this was queued */
597         pool->listener->callbacks->emptied(pool, pool->listener);
598         return 0;
599 }
600
601 /*!
602  * \brief Taskprocessor listener emptied callback
603  *
604  * The threadpool queues a task to let the threadpool listener know that
605  * the threadpool no longer contains any tasks.
606  * \param listener The taskprocessor listener. The threadpool is the listener's private data.
607  */
608 static void threadpool_tps_emptied(struct ast_taskprocessor_listener *listener)
609 {
610         struct ast_threadpool *pool = ast_taskprocessor_listener_get_user_data(listener);
611         SCOPED_AO2LOCK(lock, pool);
612
613         if (pool->shutting_down) {
614                 return;
615         }
616
617         if (pool->listener && pool->listener->callbacks->emptied) {
618                 ast_taskprocessor_push(pool->control_tps, queued_emptied, pool);
619         }
620 }
621
622 /*!
623  * \brief Taskprocessor listener shutdown callback
624  *
625  * The threadpool will shut down and destroy all of its worker threads when
626  * this is called back. By the time this gets called, the taskprocessor's
627  * control taskprocessor has already been destroyed. Therefore there is no risk
628  * in outright destroying the worker threads here.
629  * \param listener The taskprocessor listener. The threadpool is the listener's private data.
630  */
631 static void threadpool_tps_shutdown(struct ast_taskprocessor_listener *listener)
632 {
633         struct ast_threadpool *pool = ast_taskprocessor_listener_get_user_data(listener);
634
635         if (pool->listener && pool->listener->callbacks->shutdown) {
636                 pool->listener->callbacks->shutdown(pool->listener);
637         }
638         ao2_cleanup(pool->active_threads);
639         ao2_cleanup(pool->idle_threads);
640         ao2_cleanup(pool->zombie_threads);
641         ao2_cleanup(pool);
642 }
643
644 /*!
645  * \brief Table of taskprocessor listener callbacks for threadpool's main taskprocessor
646  */
647 static struct ast_taskprocessor_listener_callbacks threadpool_tps_listener_callbacks = {
648         .start = threadpool_tps_start,
649         .task_pushed = threadpool_tps_task_pushed,
650         .emptied = threadpool_tps_emptied,
651         .shutdown = threadpool_tps_shutdown,
652 };
653
654 /*!
655  * \brief ao2 callback to kill a set number of threads.
656  *
657  * Threads will be unlinked from the container as long as the
658  * counter has not reached zero. The counter is decremented with
659  * each thread that is removed.
660  * \param obj The worker thread up for possible destruction
661  * \param arg The counter
662  * \param flags Unused
663  * \retval CMP_MATCH The counter has not reached zero, so this flag should be removed.
664  * \retval CMP_STOP The counter has reached zero so no more threads should be removed.
665  */
666 static int kill_threads(void *obj, void *arg, int flags)
667 {
668         int *num_to_kill = arg;
669
670         if (*num_to_kill > 0) {
671                 --(*num_to_kill);
672                 return CMP_MATCH;
673         } else {
674                 return CMP_STOP;
675         }
676 }
677
678 /*!
679  * \brief ao2 callback to zombify a set number of threads.
680  *
681  * Threads will be zombified as long as as the counter has not reached
682  * zero. The counter is decremented with each thread that is zombified.
683  *
684  * Zombifying a thread involves removing it from its current container,
685  * adding it to the zombie container, and changing the state of the
686  * worker to a zombie
687  *
688  * This callback is called from the threadpool control taskprocessor thread.
689  *
690  * \param obj The worker thread that may be zombified
691  * \param arg The pool to which the worker belongs
692  * \param data The counter
693  * \param flags Unused
694  * \retval CMP_MATCH The zombified thread should be removed from its current container
695  * \retval CMP_STOP Stop attempting to zombify threads
696  */
697 static int zombify_threads(void *obj, void *arg, void *data, int flags)
698 {
699         struct worker_thread *worker = obj;
700         struct ast_threadpool *pool = arg;
701         int *num_to_zombify = data;
702
703         if ((*num_to_zombify)-- > 0) {
704                 if (!ao2_link(pool->zombie_threads, worker)) {
705                         ast_log(LOG_WARNING, "Failed to zombify active thread %d. Thread will remain active\n", worker->id);
706                         return 0;
707                 }
708                 worker_set_state(worker, ZOMBIE);
709                 return CMP_MATCH;
710         } else {
711                 return CMP_STOP;
712         }
713 }
714
715 /*!
716  * \brief Remove threads from the threadpool
717  *
718  * The preference is to kill idle threads. However, if there are
719  * more threads to remove than there are idle threads, then active
720  * threads will be zombified instead.
721  *
722  * This function is called from the threadpool control taskprocessor thread.
723  *
724  * \param pool The threadpool to remove threads from
725  * \param delta The number of threads to remove
726  */
727 static void shrink(struct ast_threadpool *pool, int delta)
728 {
729         /*
730          * Preference is to kill idle threads, but
731          * we'll move on to deactivating active threads
732          * if we have to
733          */
734         int idle_threads = ao2_container_count(pool->idle_threads);
735         int idle_threads_to_kill = MIN(delta, idle_threads);
736         int active_threads_to_zombify = delta - idle_threads_to_kill;
737
738         ast_debug(3, "Destroying %d idle threads in threadpool %s\n", idle_threads_to_kill,
739                         ast_taskprocessor_name(pool->tps));
740
741         ao2_callback(pool->idle_threads, OBJ_UNLINK | OBJ_NOLOCK | OBJ_NODATA | OBJ_MULTIPLE,
742                         kill_threads, &idle_threads_to_kill);
743
744         ast_debug(3, "Destroying %d active threads in threadpool %s\n", active_threads_to_zombify,
745                         ast_taskprocessor_name(pool->tps));
746
747         ao2_callback_data(pool->active_threads, OBJ_UNLINK | OBJ_NOLOCK | OBJ_NODATA | OBJ_MULTIPLE,
748                         zombify_threads, pool, &active_threads_to_zombify);
749 }
750
751 /*!
752  * \brief Helper struct used for queued operations that change the size of the threadpool
753  */
754 struct set_size_data {
755         /*! The pool whose size is to change */
756         struct ast_threadpool *pool;
757         /*! The requested new size of the pool */
758         unsigned int size;
759 };
760
761 /*!
762  * \brief Allocate and initialize a set_size_data
763  * \param pool The pool for the set_size_data
764  * \param size The size to store in the set_size_data
765  */
766 static struct set_size_data *set_size_data_alloc(struct ast_threadpool *pool,
767                 unsigned int size)
768 {
769         struct set_size_data *ssd = ao2_alloc(sizeof(*ssd), NULL);
770         if (!ssd) {
771                 return NULL;
772         }
773
774         ssd->pool = pool;
775         ssd->size = size;
776         return ssd;
777 }
778
779 /*!
780  * \brief Change the size of the threadpool
781  *
782  * This can either result in shrinking or growing the threadpool depending
783  * on the new desired size and the current size.
784  *
785  * This function is run from the threadpool control taskprocessor thread
786  *
787  * \param data A set_size_data used for determining how to act
788  * \return 0
789  */
790 static int queued_set_size(void *data)
791 {
792         RAII_VAR(struct set_size_data *, ssd, data, ao2_cleanup);
793         struct ast_threadpool *pool = ssd->pool;
794         unsigned int num_threads = ssd->size;
795
796         /* We don't count zombie threads as being "live" when potentially resizing */
797         unsigned int current_size = ao2_container_count(pool->active_threads) +
798                 ao2_container_count(pool->idle_threads);
799
800         if (current_size == num_threads) {
801                 ast_debug(3, "Not changing threadpool size since new size %u is the same as current %u\n",
802                           num_threads, current_size);
803                 return 0;
804         }
805
806         if (current_size < num_threads) {
807                 grow(pool, num_threads - current_size);
808                 ao2_callback(pool->idle_threads, OBJ_UNLINK | OBJ_NOLOCK | OBJ_NODATA | OBJ_MULTIPLE,
809                                 activate_thread, pool);
810         } else {
811                 shrink(pool, current_size - num_threads);
812         }
813
814         threadpool_send_state_changed(pool);
815         return 0;
816 }
817
818 void ast_threadpool_set_size(struct ast_threadpool *pool, unsigned int size)
819 {
820         struct set_size_data *ssd;
821         SCOPED_AO2LOCK(lock, pool);
822         if (pool->shutting_down) {
823                 return;
824         }
825
826         ssd = set_size_data_alloc(pool, size);
827         if (!ssd) {
828                 return;
829         }
830
831         ast_taskprocessor_push(pool->control_tps, queued_set_size, ssd);
832 }
833
834 struct ast_threadpool_listener *ast_threadpool_listener_alloc(
835                 const struct ast_threadpool_listener_callbacks *callbacks, void *user_data)
836 {
837         struct ast_threadpool_listener *listener = ao2_alloc(sizeof(*listener), NULL);
838         if (!listener) {
839                 return NULL;
840         }
841         listener->callbacks = callbacks;
842         listener->user_data = user_data;
843         return listener;
844 }
845
846 void *ast_threadpool_listener_get_user_data(const struct ast_threadpool_listener *listener)
847 {
848         return listener->user_data;
849 }
850
851 struct pool_options_pair {
852         struct ast_threadpool *pool;
853         struct ast_threadpool_options options;
854 };
855
856 struct ast_threadpool *ast_threadpool_create(const char *name,
857                 struct ast_threadpool_listener *listener,
858                 const struct ast_threadpool_options *options)
859 {
860         struct ast_taskprocessor *tps;
861         RAII_VAR(struct ast_taskprocessor_listener *, tps_listener, NULL, ao2_cleanup);
862         RAII_VAR(struct ast_threadpool *, pool, threadpool_alloc(name, options), ao2_cleanup);
863
864         if (!pool) {
865                 return NULL;
866         }
867
868         tps_listener = ast_taskprocessor_listener_alloc(&threadpool_tps_listener_callbacks, pool);
869         if (!tps_listener) {
870                 return NULL;
871         }
872
873         if (options->version != AST_THREADPOOL_OPTIONS_VERSION) {
874                 ast_log(LOG_WARNING, "Incompatible version of threadpool options in use.\n");
875                 return NULL;
876         }
877
878         tps = ast_taskprocessor_create_with_listener(name, tps_listener);
879         if (!tps) {
880                 return NULL;
881         }
882
883         pool->tps = tps;
884         if (listener) {
885                 ao2_ref(listener, +1);
886                 pool->listener = listener;
887         }
888         ast_threadpool_set_size(pool, pool->options.initial_size);
889         ao2_ref(pool, +1);
890         return pool;
891 }
892
893 int ast_threadpool_push(struct ast_threadpool *pool, int (*task)(void *data), void *data)
894 {
895         SCOPED_AO2LOCK(lock, pool);
896         if (!pool->shutting_down) {
897                 return ast_taskprocessor_push(pool->tps, task, data);
898         }
899         return -1;
900 }
901
902 void ast_threadpool_shutdown(struct ast_threadpool *pool)
903 {
904         if (!pool) {
905                 return;
906         }
907         /* Shut down the taskprocessors and everything else just
908          * takes care of itself via the taskprocessor callbacks
909          */
910         ao2_lock(pool);
911         pool->shutting_down = 1;
912         ao2_unlock(pool);
913         ast_taskprocessor_unreference(pool->control_tps);
914         ast_taskprocessor_unreference(pool->tps);
915 }
916
917 /*!
918  * A monotonically increasing integer used for worker
919  * thread identification.
920  */
921 static int worker_id_counter;
922
923 static int worker_thread_hash(const void *obj, int flags)
924 {
925         const struct worker_thread *worker = obj;
926
927         return worker->id;
928 }
929
930 static int worker_thread_cmp(void *obj, void *arg, int flags)
931 {
932         struct worker_thread *worker1 = obj;
933         struct worker_thread *worker2 = arg;
934
935         return worker1->id == worker2->id ? CMP_MATCH : 0;
936 }
937
938 /*!
939  * \brief shut a worker thread down
940  *
941  * Set the worker dead and then wait for its thread
942  * to finish executing.
943  *
944  * \param worker The worker thread to shut down
945  */
946 static void worker_shutdown(struct worker_thread *worker)
947 {
948         worker_set_state(worker, DEAD);
949         if (worker->thread != AST_PTHREADT_NULL) {
950                 pthread_join(worker->thread, NULL);
951                 worker->thread = AST_PTHREADT_NULL;
952         }
953 }
954
955 /*!
956  * \brief Worker thread destructor
957  *
958  * Called automatically when refcount reaches 0. Shuts
959  * down the worker thread and destroys its component
960  * parts
961  */
962 static void worker_thread_destroy(void *obj)
963 {
964         struct worker_thread *worker = obj;
965         ast_debug(3, "Destroying worker thread %d\n", worker->id);
966         worker_shutdown(worker);
967         ast_mutex_destroy(&worker->lock);
968         ast_cond_destroy(&worker->cond);
969 }
970
971 /*!
972  * \brief start point for worker threads
973  *
974  * Worker threads start in the active state but may
975  * immediately go idle if there is no work to be
976  * done
977  *
978  * \param arg The worker thread
979  * \retval NULL
980  */
981 static void *worker_start(void *arg)
982 {
983         struct worker_thread *worker = arg;
984
985         if (worker->options.thread_start) {
986                 worker->options.thread_start();
987         }
988
989         ast_mutex_lock(&worker->lock);
990         while (worker_idle(worker)) {
991                 ast_mutex_unlock(&worker->lock);
992                 worker_active(worker);
993                 ast_mutex_lock(&worker->lock);
994                 if (worker->state != ALIVE) {
995                         break;
996                 }
997                 threadpool_active_thread_idle(worker->pool, worker);
998         }
999         ast_mutex_unlock(&worker->lock);
1000
1001         /* Reaching this portion means the thread is
1002          * on death's door. It may have been killed while
1003          * it was idle, in which case it can just die
1004          * peacefully. If it's a zombie, though, then
1005          * it needs to let the pool know so
1006          * that the thread can be removed from the
1007          * list of zombie threads.
1008          */
1009         if (worker->state == ZOMBIE) {
1010                 threadpool_zombie_thread_dead(worker->pool, worker);
1011         }
1012
1013         if (worker->options.thread_end) {
1014                 worker->options.thread_end();
1015         }
1016         return NULL;
1017 }
1018
1019 /*!
1020  * \brief Allocate and initialize a new worker thread
1021  *
1022  * This will create, initialize, and start the thread.
1023  *
1024  * \param pool The threadpool to which the worker will be added
1025  * \retval NULL Failed to allocate or start the worker thread
1026  * \retval non-NULL The newly-created worker thread
1027  */
1028 static struct worker_thread *worker_thread_alloc(struct ast_threadpool *pool)
1029 {
1030         struct worker_thread *worker = ao2_alloc(sizeof(*worker), worker_thread_destroy);
1031         if (!worker) {
1032                 return NULL;
1033         }
1034         worker->id = ast_atomic_fetchadd_int(&worker_id_counter, 1);
1035         ast_mutex_init(&worker->lock);
1036         ast_cond_init(&worker->cond, NULL);
1037         worker->pool = pool;
1038         worker->thread = AST_PTHREADT_NULL;
1039         worker->state = ALIVE;
1040         worker->options = pool->options;
1041         return worker;
1042 }
1043
1044 static int worker_thread_start(struct worker_thread *worker)
1045 {
1046         return ast_pthread_create(&worker->thread, NULL, worker_start, worker);
1047 }
1048
1049 /*!
1050  * \brief Active loop for worker threads
1051  *
1052  * The worker will stay in this loop for its lifetime,
1053  * executing tasks as they become available. If there
1054  * are no tasks currently available, then the thread
1055  * will go idle.
1056  *
1057  * \param worker The worker thread executing tasks.
1058  */
1059 static void worker_active(struct worker_thread *worker)
1060 {
1061         int alive;
1062
1063         /* The following is equivalent to 
1064          *
1065          * while (threadpool_execute(worker->pool));
1066          *
1067          * However, reviewers have suggested in the past
1068          * doing that can cause optimizers to (wrongly)
1069          * optimize the code away.
1070          */
1071         do {
1072                 alive = threadpool_execute(worker->pool);
1073         } while (alive);
1074 }
1075
1076 /*!
1077  * \brief Idle function for worker threads
1078  *
1079  * The worker waits here until it gets told by the threadpool
1080  * to wake up.
1081  *
1082  * worker is locked before entering this function.
1083  *
1084  * \param worker The idle worker
1085  * \retval 0 The thread is being woken up so that it can conclude.
1086  * \retval non-zero The thread is being woken up to do more work.
1087  */
1088 static int worker_idle(struct worker_thread *worker)
1089 {
1090         struct timeval start = ast_tvnow();
1091         struct timespec end = {
1092                 .tv_sec = start.tv_sec + worker->options.idle_timeout,
1093                 .tv_nsec = start.tv_usec * 1000,
1094         };
1095         while (!worker->wake_up) {
1096                 if (worker->options.idle_timeout <= 0) {
1097                         ast_cond_wait(&worker->cond, &worker->lock);
1098                 } else if (ast_cond_timedwait(&worker->cond, &worker->lock, &end) == ETIMEDOUT) {
1099                         break;
1100                 }
1101         }
1102
1103         if (!worker->wake_up) {
1104                 ast_debug(1, "Worker thread idle timeout reached. Dying.\n");
1105                 threadpool_idle_thread_dead(worker->pool, worker);
1106                 worker->state = DEAD;
1107         }
1108         worker->wake_up = 0;
1109         return worker->state == ALIVE;
1110 }
1111
1112 /*!
1113  * \brief Change a worker's state
1114  *
1115  * The threadpool calls into this function in order to let a worker know
1116  * how it should proceed.
1117  */
1118 static void worker_set_state(struct worker_thread *worker, enum worker_state state)
1119 {
1120         SCOPED_MUTEX(lock, &worker->lock);
1121         worker->state = state;
1122         worker->wake_up = 1;
1123         ast_cond_signal(&worker->cond);
1124 }
1125
1126 struct serializer {
1127         struct ast_threadpool *pool;
1128 };
1129
1130 static void serializer_dtor(void *obj)
1131 {
1132         struct serializer *ser = obj;
1133         ao2_cleanup(ser->pool);
1134         ser->pool = NULL;
1135 }
1136
1137 static struct serializer *serializer_create(struct ast_threadpool *pool)
1138 {
1139         struct serializer *ser = ao2_alloc(sizeof(*ser), serializer_dtor);
1140         if (!ser) {
1141                 return NULL;
1142         }
1143         ao2_ref(pool, +1);
1144         ser->pool = pool;
1145         return ser;
1146 }
1147
1148 static int execute_tasks(void *data)
1149 {
1150         struct ast_taskprocessor *tps = data;
1151
1152         while (ast_taskprocessor_execute(tps)) {
1153                 /* No-op */
1154         }
1155
1156         ast_taskprocessor_unreference(tps);
1157         return 0;
1158 }
1159
1160 static void serializer_task_pushed(struct ast_taskprocessor_listener *listener, int was_empty)
1161 {
1162         if (was_empty) {
1163                 struct serializer *ser = ast_taskprocessor_listener_get_user_data(listener);
1164                 struct ast_taskprocessor *tps = ast_taskprocessor_listener_get_tps(listener);
1165
1166                 if (ast_threadpool_push(ser->pool, execute_tasks, tps)) {
1167                         ast_taskprocessor_unreference(tps);
1168                 }
1169         }
1170 }
1171
1172 static int serializer_start(struct ast_taskprocessor_listener *listener)
1173 {
1174         /* No-op */
1175         return 0;
1176 }
1177
1178 static void serializer_shutdown(struct ast_taskprocessor_listener *listener)
1179 {
1180         struct serializer *ser = ast_taskprocessor_listener_get_user_data(listener);
1181         ao2_cleanup(ser);
1182 }
1183
1184 static struct ast_taskprocessor_listener_callbacks serializer_tps_listener_callbacks = {
1185         .task_pushed = serializer_task_pushed,
1186         .start = serializer_start,
1187         .shutdown = serializer_shutdown,
1188 };
1189
1190 struct ast_taskprocessor *ast_threadpool_serializer(const char *name, struct ast_threadpool *pool)
1191 {
1192         RAII_VAR(struct serializer *, ser, NULL, ao2_cleanup);
1193         RAII_VAR(struct ast_taskprocessor_listener *, listener, NULL, ao2_cleanup);
1194         struct ast_taskprocessor *tps = NULL;
1195
1196         ser = serializer_create(pool);
1197         if (!ser) {
1198                 return NULL;
1199         }
1200
1201         listener = ast_taskprocessor_listener_alloc(&serializer_tps_listener_callbacks, ser);
1202         if (!listener) {
1203                 return NULL;
1204         }
1205         ser = NULL; /* ownership transferred to listener */
1206
1207         tps = ast_taskprocessor_create_with_listener(name, listener);
1208         if (!tps) {
1209                 return NULL;
1210         }
1211
1212         return tps;
1213 }