Selección de variables en la predicción de llamadas en un centro de atención telefónica

Manuel R. Arahal, Manuel Berenguel, Eduardo F. Camacho, Fernando Pavón

Resumen

En este artículo se ilustra la importancia de la selección de variables independientes para modelos neuronales destinados a la predicción de la demanda en un centro de atención telefónica. Los modelos tienen como objetivo ayudar en la planificación semanal del personal del centro, tarea que se realiza con 14 días de antelación. Los modelos requeridos pueden hacer uso de gran cantidad de variables independientes. Sin embargo, el número de casos que pueden ser usados para obtener los parámetros del modelo es escaso debido a los cambios socio-económicos. Esto plantea la necesidad de seleccionar cuidadosamente las variables independientes y utilizar el menor número posible de ellas, de otro modo la generalización del modelo se degradaría. Para resolver el problema se utiliza un método mixto que permite trabajar con un alto número de variables candidatas, en una primera fase, y seleccionar más cuidadosamente un número menor de variables en una segunda fase. Los resultados obtenidos por los modelos resultantes de aplicar el método propuesto y sus variantes son analizados utilizando datos reales de un centro de atención telefónica. Los resultados de la comparación muestran que la correcta selección de variables independientes es vital para este tipo de aplicación.

Palabras clave

modelos; predicción; redes de neuronas artificiales

Texto completo:

PDF

Referencias

Akaike, H. (1974). A new look at the statistical model identification. IEEE Trans. on Automatic Control AC-19(5), 716– 723.

Andrews, B. y S.M. Cunningham (1995). L.L. Bean improves call-center forecasting. Interfaces 25, 1–13.

Antipov, A. y N. Meade (2002). Forecasting call frequency at a financial services call centre. Journal of Operational Research Society 53(9), 953–960.

Avramidis, A.N., A. Deslauriers y P. L’Ecuyer (2004). Modeling daily arrivals to a telephone call center. Management Science 50(7), 896–908.

Back, A.D. y A. Cichocki (1999). Input variable selection using independent component analysis y higher order statistics. In: First International Conference on Independent Component Analysis y Signal Separation. France. pp. 203–208.

Berenguel, M., M.R. Arahal y E.F. Camacho (1998). Modelling the free response of a solar plant for predictive control. Control Engineering Practice 6, 1257–1266.

Bi, Jinbo, Kristin Bennett, Mark Embrechts, Curt Breneman y Minghu Song (2003). Dimensionality reduction via sparse support vector machines. Journal of Machine Learning Research 3, 1229–1243.

Bishop, C.M. (2006). Pattern Recognition y Machine Learning. Springer. New York.

Bonnlander, B. (1996). Nonparametric selection of input variables for connectionist learning.

Buzug, T. y G. Pfister (1992). Optimal delay time y embedding dimension for delay-time coordinates by analysis of the global static y local dynamical behavior of strange attractors. Phys. Rev. A 45, 7073–7084.

Cao, L., A.I. Mees, K. Judd y G. Froyland (1998). Determining the minimum embedding dimensions of input-output time series data. Internat. J. Bifur. Chaos Appl. Sci. Engrg. 8, 1491– 1504.

Chen, S., S.A. Billings, C.F.N. Cowan y P.M. Grant (1990). Practical identification of narmax models using radial basis functions. Int. J. Control 52, 1327–1350.

Díez, J. L., J. L. Navarro y A. Sala (2004). Algoritmos de agrupamiento en la identificación de modelos borrosos. Revista Iberoamericana de Automática e Informática Industrial 1(2), 32–41.

Efron, B. y R.J. Tibshirani (1993). An Introduction to the Bootstrap. Chapman y Hall. London.

Fraser, A.M. y H.L. Swinney (1986). Independent coordinates for strange attractors from mutual information. Phys. Rev. A 33, 1134–1140.

Gans, N., G. Koole y A. Mandelbaum (2003). Telephone call centers: Tutorial, review y research prospects. Manufacturing y Service Operations Management 5(2), 79–141.

Goutte, C. (1997). Lag space estimation in time series modelling.

Jongbloed, G. y G.M. Koole (2001). Managing uncertainty in call centers using poisson mixtures. Applied Stochastic Models in Business y Industry 17, 307–318.

Judd, K. y A. I. Mees (1995). On selecting models for nonlinear time series. Physica D 82, 426–444.

Judge, G.G., W.E. Griffths, R.C. Hill, H. L¨utkepohl y T.C. Lee (1985). The theory y practice of econometrics. Wiley. New York.

Kennel, M.B., R. Brown y H.D.I. Abarbanel (1992). Determining embedding dimension for phase-space reconstruction using a geometrical construction. Phys. Rev. A 45, 3403– 3411.

Kohavi, R. y G.H. John (1997). Wrappers for feature subset selection. Artificial Intelligence 97(1-2), 273–324.

Kohavi, Ron (1995). A study of cross-validation y bootstrap for accuracy estimation y model selection. In: International Joint Conference on Artificial Intelligence. pp. 1137–1145.

Koole, G. y A. Mandelbaum (2002). Queueing models of call centers an introduction. Annals of Operations Research 113, 41–59.

Kuo, L. y B. Mallick (1994). Variable selection for regression models. Technical Report 94-26. Department of Statistics, University of Connecticut, EE.UU.

LeCun, Y., J. Denker, S. Solla, R. E. Howard y L. D. Jackel (1990). Optimal brain damage. In: Advances in Neural Information Processing Systems II (D. S. Touretzky, Ed.). Morgan Kauffman. San Mateo, CA. pp. 740–747.

Levin, A.U. y T.K. Leen (1993). Using pca to improve generalization in supervised learning. In: NATO Workshop on Statistics y Neural Networks. pp. 740–747.

Ljung, L. (1987). System Identification – Theory for the user. Prentice Hall. Englewood Cliffs, NJ.

Miller, A.J. (1990). Subset Selection in Regression. Chapman y Hall. London.

Moody, J. (1992). The effective number of parameters: An analysis of generalization y regularization in nonlinear learning systems. In: Advances in Neural Information Processing Systems (D. S. Touretzky, Ed.). Vol. 4. Morgan Kaufmann, San Mateo. pp. 29–39.

Murata, N., S. Yoshizawa y S.-I. Amari (1994). Network information criterion. determining the number of hidden units for an artificial neural network model. IEEE Transactions on Neural Networks 5(6), 865–872.

Pi, H. y C. Peterson (1994). Finding the embedding dimension y variable dependences in time series. Neural Computation 6, 509–520.

Pinedo, M., S. Seshadri y J.G. Shanthikumar (1999). Call centers in financial services: strategies, technologies, y operations. In: Creating Value in Financial Services: Strategies, Operations y Technologies (E.L.Melnick, P.Nayyar, M.L. ˜ Pinedo y S. Seshadri, Eds.). Chap. 18, pp. 357–388. Kluwer.

Piras, A. y A. Germond (1998). Local linear correlation analysis with the som. Neurocomputing 21(1-3), 79–90.

Poncet, A. y G.S. Moschytz (1996). Selecting inputs y measuring nonlinearity in system identification. In: Neural Networks for Identification, Control, Robotics, y Signal/Image Processing. IEEE Computer Society. pp. 2–10.

Reed, R. (1993). Pruning algorithms–a survey. IEEE Transactions on Neural Networks 4, 740–747.

Rhodes, C. y M. Morari (1998). Determining the model order of nonlinear input/output systems. AIChE Journal 44, 151–163.

Rissanen, J. (1986). Stochastic complexity y modeling. Annals of Statistics 14, 1080–1100.

Sauer, T., J. A. Yorke y M. Casdagli (1991). Embedology. J. Statis. Phys. 65, 579–616.

Schuurmans, D. (1997). A new metric-based approach to model selection. In: Proceedings of the Fourteenth National Conference on Artificial Intelligence. pp. 552–558.

Shen, H. y J.Z. Huang (2008). Interday forecasting y intraday updating of call center arrivals. Manufacturing y Service Operations Management 10, 391–410.

Sze, D.Y. (1984). A queuing model for telephone operator staffing. Operations Research 32, 229–249.

Valverde, R. y D. Gachet (2007). Identificación de sistemas dinámicos utilizando redes neuronales rbf. Revista Iberoamericana de Automática e Informática Industrial 4(2), 32–42.

Vapnik, V. (1992). Principles of risk minimization for learning theory. In: Advances in Neural Information Processing Systems (D. S. Touretzky, Ed.). Vol. 4. Morgan Kaufmann, San Mateo. pp. 831–839.

Weiss, S.M. y C.A. Kulikowski (1991). Computer Systems That Learn. Morgan Kaufmann.

Werbos, Paul J. (1988). Generalization of backpropagation with application to a recurrent gas market model. Neural Networks 1(4), 339–356.

Yu, D., J.B. Gomm y D. Williams (2000). Neural model input selection for a mimo chemical process. Engineering Applications of Artificial Intelligence 13, 15–23.

Yuan, J.-L. y T.L. Fine (1998). Neural-network design for small training sets of high dimension. IEEE Transactions on neural networks 9, 266–280.

Abstract Views

504
Metrics Loading ...

Metrics powered by PLOS ALM




Creative Commons License

Esta revista se publica bajo una Licencia Creative Commons Attribution-NonCommercial-CompartirIgual 4.0 International (CC BY-NC-SA 4.0)

Universitat Politècnica de València     https://doi.org/10.4995/riai

e-ISSN: 1697-7920     ISSN: 1697-7912