Segunda edición Introducción a la INGENIERÍA Dr. Sergio Romero Hernández Dr. Omar Romero Hernández Dr. Daniel Muñoz Negrón Introducción a la ingeniería Segunda edición Introducción a la ingeniería Segunda edición Dr. Sergio Romero Hernández Dr. Omar Romero Hernández Dr. David Muñoz Negrón ® Australia • Brasil • Corea • España • Estados Unidos • Japón • México • Reino Unido • Singapur ® Introducción a la ingeniería. Segunda edición Dr. Sergio Romero Hernández, Dr. Omar Romero Hernández, Dr. David Muñoz Negrón Presidente de Cengage Learning Latinoamérica: Fernando Valenzuela Migoya Director Editorial, de Producción y de Plataformas Digitales para Latinoamérica: Ricardo H. Rodríguez Editora de Adquisiciones para Latinoamérica: Claudia C. Garay Castro Gerente de Manufactura para Latinoamérica: Raúl D. Zendejas Espejel Gerente Editorial de Contenidos en Español: Pilar Hernández Santamarina Gerente de Proyectos Especiales: Luciana Rabuffetti Coordinador de Manufactura: Rafael Pérez González Editor: Sergio R. Cervantes González Diseño de portada: Anneli Daniela Torres Arroyo Imagen de portada: Engineering Design Science as a Blueprint Concept © kentoh/Shutterstock Composición tipográfica: Rogelio Raymundo Reyna Reynoso Impreso en México 1 2 3 4 5 6 7 15 14 13 12 © D.R. 2015 por Cengage Learning Editores, S.A. de C.V., una Compañía de Cengage Learning, Inc. Corporativo Santa Fe Av. Santa Fe núm. 505, piso 12 Col. Cruz Manca, Santa Fe C.P. 05349, México, D.F. Cengage Learning® es una marca registrada usada bajo permiso. DERECHOS RESERVADOS. Ninguna parte de este trabajo amparado por la Ley Federal del Derecho de Autor, podrá ser reproducida, transmitida, almacenada o utilizada en cualquier forma o por cualquier medio, ya sea gráfico, electrónico o mecánico, incluyendo, pero sin limitarse a lo siguiente: fotocopiado, reproducción, escaneo, digitalización, grabación en audio, distribución en Internet, distribución en redes de información o almacenamiento y recopilación en sistemas de información a excepción de lo permitido en el Capítulo III, Artículo 27 de la Ley Federal del Derecho de Autor, sin el consentimiento por escrito de la Editorial. Datos para catalogación bibliográfica: Dr. Sergio Romero Hernández, Dr. Omar Romero Hernández, Dr. David Muñoz Negrón Introducción a la ingeniería. Segunda edición ISBN: 978-607-519-543-8 Visite nuestro sitio en: http://latinoamerica.cengage.com DEDICATORIA A María Cristina Hernández Montoya Contenido Prefacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xiii CAPÍTULO 1 Introducción a la ingeniería . . . . . . . . . . . . 1 1.1 1.2 1.3 1.4 1.5 ¿Qué es la ingeniería? . . . . . . . . . . . . . . . . . . . . . . . . . . . . Historia de la ingeniería . . . . . . . . . . . . . . . . . . . . . . . . . . . Perfil del ingeniero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ética profesional y valores . . . . . . . . . . . . . . . . . . . . . . . . . Propiedad intelectual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 4 13 14 18 CAPÍTULO 2 El mundo de la ingeniería . . . . . . . . . . . . . 21 2.1 2.2 2.3 2.4 2.5 2.6 2.7 Ingenieros más notables. . . . . . . . . . . . . . . . . . . . . . . . . . . Ramas de la ingeniería . . . . . . . . . . . . . . . . . . . . . . . . . . . . El estudio y campo laboral de la ingeniería . . . . . . . . . . . . Asociaciones de ingeniería . . . . . . . . . . . . . . . . . . . . . . . . . Últimos desarrollos ingenieriles en diferentes sectores . . . Retos y nuevas fronteras . . . . . . . . . . . . . . . . . . . . . . . . . . Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 25 34 36 38 44 46 CAPÍTULO 3 Estrategia, innovación y competitividad . . 51 3.1 3.2 3.3 3.4 3.5 3.6 3.7 3.8 3.9 3.10 51 53 54 55 58 59 62 64 65 67 Nuevo entorno competitivo . . . . . . . . . . . . . . . . . . . . . . . . Estrategia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Estrategia versus efectividad operativa . . . . . . . . . . . . . . . Posiciones de ventaja competitiva . . . . . . . . . . . . . . . . . . Fuentes de ventaja competitiva . . . . . . . . . . . . . . . . . . . . . Cadena de valor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Innovación de procesos . . . . . . . . . . . . . . . . . . . . . . . . . . . Premio de la innovación . . . . . . . . . . . . . . . . . . . . . . . . . . . Disciplina de la innovación . . . . . . . . . . . . . . . . . . . . . . . . . Oportunidades y fuentes de la innovación . . . . . . . . . . . . . viii Contenido 3.11 Metodología de innovación . . . . . . . . . . . . . . . . . . . . . . . . 3.12 Mapa de la estrategia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.13 Comentarios finales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 71 73 CAPÍTULO 4 Algorítmica y programación . . . . . . . . . . . 77 4.1 4.2 4.3 4.4 Solución automatizada de problemas . . . . . . . . . . . . . . . . Algoritmos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Programación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ingeniería de software . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 81 93 100 CAPÍTULO 5 Herramientas computacionales para ingeniería . . . . . . . . . . . . . . . . . . . . . . 105 5.1 5.2 5.3 5.4 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Programas computacionales para ingeniería . . . . . . . . . . MATLAB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Comentarios finales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 106 109 127 CAPÍTULO 6 Energía, medio ambiente y desarrollo sustentable . . . . . . . . . . . . . . . 131 6.1 6.2 6.3 6.4 6.5 6.6 6.7 6.8 6.9 6.10 6.11 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Principales problemas ambientales y energéticos . . . . . . . Breve recuento histórico (The natural step) . . . . . . . . . . . . Herramientas de manejo ambiental . . . . . . . . . . . . . . . . . . Flujos de materia y energía. . . . . . . . . . . . . . . . . . . . . . . . . Análisis de ciclo de vida . . . . . . . . . . . . . . . . . . . . . . . . . . . Gestión de riesgos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Evaluación de impacto ambiental . . . . . . . . . . . . . . . . . . . Energías renovables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ecología industrial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sistemas empresariales de manejo ambiental . . . . . . . . . . 131 132 135 138 139 144 147 150 153 155 157 CAPÍTULO 7 Materiales en ingeniería y procesos de manufactura. . . . . . . . . . . . . . . . . . . . . . 161 7.1 7.2 7.3 7.4 7.5 Introducción e importancia de los materiales en ingeniería . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Estructura de los materiales . . . . . . . . . . . . . . . . . . . . . . . . Principales aleaciones ferrosas y no ferrosas . . . . . . . . . . Polímeros y cerámicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . Propiedades mecánicas de los materiales . . . . . . . . . . . . . 161 163 166 167 169 Contenido 7.6 7.7 7.8 7.9 7.10 7.11 ix Clasificación general de los procesos de conformado . . . Procesos de fundición y vaciado . . . . . . . . . . . . . . . . . . . . Conformado de metales . . . . . . . . . . . . . . . . . . . . . . . . . . . Conformado y aplicaciones de polímeros . . . . . . . . . . . . . Manufactura integrada por computadora . . . . . . . . . . . . . Construcción rápida de prototipos. . . . . . . . . . . . . . . . . . . 170 171 172 173 176 180 CAPÍTULO 8 Ergonomía . . . . . . . . . . . . . . . . . . . . . . . . . . 183 8.1 8.2 8.3 8.4 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Historia de la ergonomía. . . . . . . . . . . . . . . . . . . . . . . . . . . Áreas de la ergonomía . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ergonomía de diseño centrado en el usuario . . . . . . . . . . . 183 185 189 222 CAPÍTULO 9 Diseño y desarrollo de productos: un enfoque CAD . . . . . . . . . . . . . . . . . . . . . 225 9.1 9.2 9.3 9.4 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Procesos de desarrollo y organizaciones . . . . . . . . . . . . . . Planeación de productos . . . . . . . . . . . . . . . . . . . . . . . . . . Identificación de necesidades y generación de especificaciones ingenieriles . . . . . . . . . . . . . . . . . . . . . Generación y selección de conceptos: el uso del CAD . . . Pruebas y prototipos mediante CAM . . . . . . . . . . . . . . . . . Estrategias modernas de diseño considerando PLM . . . . 225 227 233 CAPÍTULO 10 Ingeniería económica . . . . . . . . . . . . . . . . 249 10.1 10.2 10.3 10.4 Rentabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Principales medidas de rentabilidad . . . . . . . . . . . . . . . . . Fuentes de recursos financieros. . . . . . . . . . . . . . . . . . . . . Estudio de caso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249 253 257 263 CAPÍTULO 11 Administración de proyectos . . . . . . . . . . 273 11.1 11.2 11.3 11.4 273 275 280 9.5 9.6 9.7 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . El proyecto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Planeación de proyectos . . . . . . . . . . . . . . . . . . . . . . . . . . Programación de proyectos con tiempos de actividades conocidos. . . . . . . . . . . . . . . . . . . . . . . . . . 11.5 Programación de proyectos con tiempos de actividades inciertos . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.6 Consideraciones de costos . . . . . . . . . . . . . . . . . . . . . . . . 236 242 245 245 294 297 300 x Contenido CAPÍTULO 12 Ingeniería y control de la calidad . . . . . . 307 12.1 12.2 12.3 12.4 12.5 12.6 12.7 12.8 La filosofía de calidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Variabilidad en el desempeño. . . . . . . . . . . . . . . . . . . . . . . Herramientas para analizar y registrar la variabilidad. . . . . Control estadístico de procesos. . . . . . . . . . . . . . . . . . . . . Medición de la habilidad de un proceso . . . . . . . . . . . . . . Six Sigma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Mejora en la habilidad de un proceso . . . . . . . . . . . . . . . . Las normas ISO 9000 e ISO 14000 . . . . . . . . . . . . . . . . . . 307 310 312 315 321 323 325 327 CAPÍTULO 13 Diseño de planta . . . . . . . . . . . . . . . . . . . . 333 13.1 Planeación de un estudio de diseño de planta . . . . . . . . . 13.2 Localización de plantas, almacenes y servicios dentro de la planta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.3 Disposición de planta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334 338 357 CAPÍTULO 14 Producción y cadena de suministro . . . . 381 14.1 14.2 14.3 14.4 14.5 14.6 14.7 14.8 14.9 381 381 385 391 401 402 404 407 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Pronóstico de la demanda . . . . . . . . . . . . . . . . . . . . . . . . . Planeación agregada de la producción . . . . . . . . . . . . . . . Administración de inventarios . . . . . . . . . . . . . . . . . . . . . . Plan maestro de la producción (PMP) . . . . . . . . . . . . . . . . Planeación de requerimiento de materiales y JIT. . . . . . . . Administración de la cadena de suministro . . . . . . . . . . . . El efecto bullwhip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Estrategias de sincronización de la cadena de suministro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 411 CAPÍTULO 15 Simulación de sistemas . . . . . . . . . . . . . . 415 15.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15.2 Simulación estocástica de evento discreto . . . . . . . . . . . . 15.3 Simulación con Excel y VBA. . . . . . . . . . . . . . . . . . . . . . . . 415 419 436 CAPÍTULO 16 Modelado y optimización . . . . . . . . . . . . . 461 16.1 16.2 16.3 16.4 461 462 465 468 ¿Qué es un modelo? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Clasificación de los modelos . . . . . . . . . . . . . . . . . . . . . . . Proceso de modelado . . . . . . . . . . . . . . . . . . . . . . . . . . . . Introducción a la programación lineal . . . . . . . . . . . . . . . . Contenido 16.5 16.6 16.7 16.8 16.9 Solución de un PPL con dos variables de decisión . . . . . . Terminología de PL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Caracterización de los modelos de PL . . . . . . . . . . . . . . . . Análisis de sensibilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . Solución de un problema de PL con más de dos variables de decisión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xi 471 475 476 480 482 APÉNDICE Introducción a la estadística y las probabilidades . . . . . . . . . . . . . . . . . . . 485 A.1 A.2 A.3 A.4 A.5 486 491 498 510 518 Introducción a las probabilidades . . . . . . . . . . . . . . . . . . . Variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Principales distribuciones de variables aleatorias . . . . . . . Introducción a la estadística descriptiva . . . . . . . . . . . . . . Introducción a la estadística inferencial . . . . . . . . . . . . . . . Prefacio Este libro es la segunda edición de un exitoso texto que ha sido muy bien acogido por la comunidad académica en toda Hispanoamérica. El enfoque innovador y el manejo de temas como capítulos independientes y autocontenidos permite utilizarlo en el orden que el docente desee. El contenido ha sido actualizado y se han agregado diferentes capítulos para hacer el texto aplicable a cualquier rama de la ingeniería. Representa el esfuerzo de más de 30 especialistas en 14 instituciones académicas y en 7 países. Su objetivo es proveer un texto actual con una visión práctica como introducción a cualquier programa de ingeniería, y está especialmente diseñado para utilizarse como libro de texto en un curso de introducción a la ingeniería. Adicionalmente puede ser utilizado como referencia en cursos de diplomado o de especialización técnica. Once de los autores responsables de los capítulos de este libro cuentan con doctorado y los otros dos con grado de maestría; además, todos cuentan con experiencia profesional y académica superior en su área de especialización. Con base en esta característica se logró un balance entre el conocimiento teórico, su aplicación profesional en el campo de trabajo y el indispensable enfoque académico de todo libro de texto. El libro cubre la necesidad de contar con un texto actualizado sobre las distintas áreas de la ingeniería, así como las herramientas, procesos y habilidades indispensables de los ingenieros ante un entorno de globalización, competitividad e innovación. Así pues, más que un texto detallado, esta obra representa un cúmulo de conocimientos generales y actualizados sobre las cuestiones generales que un ingeniero debe saber y su aplicación en el campo laboral dentro de cualquier organización. Se busca ofrecer un texto actual, dando especial énfasis a las habilidades que todo ingeniero debe poseer: mentalidad creativa e innovadora, habilidad para manejar y entender herramientas computacionales, capacidad para administrar proyectos con los que tendrá que lidiar en su vida profesional, dominio de técnicas de ingeniería financiera, mentalidad de responsabilidad hacia el medio ambiente y el uso de la energía, y conocimiento de nuevos productos que satisfagan las cambiantes necesidades de la sociedad xiv Prefacio actual. Asimismo, mantenemos áreas de conocimiento básico que no pueden perderse en ningún ingeniero, como el conocimiento de la probabilidad y la estadística, ciencia de los materiales y procesos de manufactura, entre otras. Se compone de 16 capítulos y un anexo sobre probabilidad y estadística. Los primeros dos capítulos presentan una investigación y una visión introductoria sobre las ingenierías y el mundo de la ingeniería y sus retos a futuro, respectivamente. El capítulo 3 tiene como propósito presentar una visión sobre las condiciones dominantes en la nueva economía: globalización, competitividad, innovación y calidad, factores que debe tomar en cuenta cualquier ingeniero del siglo xxi. Los capítulos 4 y 5 introducen al estudiante en el uso de herramientas computacionales, así como en algorítmica y programación, habilidades indispensables en el desarrollo de la labor ingenieril. Hoy en día ningún ingeniero se puede sustraer de la gran responsabilidad que implica ejercer su labor en un ambiente que promueva el desarrollo sustentable, el cuidado del medio ambiente y el manejo eficiente de los recursos energéticos; estos temas se abordan en el capítulo 6. Posteriormente, en los capítulos 7 a 13 se presenta una serie de áreas particulares de la ingeniería, como son ciencias de los materiales, procesos de manufactura, ingeniería del factor humano, diseño de planta, producción y cadena de suministro, y diseño y desarrollo de productos. Los últimos capítulos del libro se orientan a algunas áreas de aplicación más amplía y en un contexto de análisis de sistemas, como simulación de sistemas, modelado, ingeniería económica y administración de proyectos. Finalmente, el libro cierra con un apéndice estadístico que provee de herramientas de análisis y sirve como referencia a los ingenieros. En particular, extendemos nuestro agradecimiento a la Asociación Mexicana de Cultura, A. C., por su invaluable apoyo para la realización del proyecto y la generación del texto. Asimismo, es pertinente nombrar a algunas de las instituciones, universidades y organizaciones a las cuales pertenecen los expertos en la materia que participaron en las encuestas realizadas o que han generado material de consulta que fue utilizado en esta investigación: Technische Universität Berlin y Universität Stuttgart (Alemania); Universidad Tecnológica Nacional (Argentina); Institute of Industrial Engineers Australia y The Industrial Engineering Society of Engineers Australia (Australia); Institute of Industrial Engineers, National Academy of Engineering, The George Washington University y World Future Society (Estados Unidos); University of Surrey (Inglaterra); Instituto de Ingenieros Industriales México, Instituto Politécnico Nacional, Instituto Tecnológico Autónomo de México, Instituto Tecnológico de Estudios Superiores de Monterrey, Universidad Nacional Autónoma de México, Universidad Panamericana y universidades e institutos tecnológicos pertenecientes a la Secretaría de Educación Pública (México); Pontificia Universidad Católica del Perú y Universidad Peruana de Ciencias Aplicadas (Perú), y Universi- Prefacio xv dad de la República (Uruguay). A todas estas instituciones, universidades y organizaciones profesionales les expresamos nuestro más sincero aprecio y reconocimiento. Quisiéramos también aprovechar para reconocer la valiosa colaboración de todos los estudiantes que de una u otra forma participaron en el proyecto. Nuestro especial reconocimiento a Eduardo Andere Portas, Thania Lorena Delgado Arizmendi, Magnolia Deschamps Ang, José Emiliano Detta Silveira, Joaquín Eduardo Góngora Vazquez, Ernesto Hernández de Oteysa, Miriam Lira Sánchez, Rodrigo López Sanroman, Edith Martínez Serrano, David Gonzalo Muñoz Medina, Arturo Palacios Brun, Rodrigo Nava, Fernando Cea y Paulina Ramos-Alarcón Maldonado. A todos ellos, gracias por su entusiasmo y por compartir su talento. Dr. Sergio Romero Hernández Dr. Omar Romero Hernández Dr. David Muñoz Negrón CAPÍTULO 1 Introducción a la ingeniería AUTORES: Sergio Romero Hernández Omar Romero Hernández David Muñoz Negrón Con la colaboración de Rodrigo Nava Ramírez 1.1 1.2 1.3 1.4 1.5 ¿Qué es la ingeniería? Historia de la ingeniería Perfil del ingeniero Ética profesional y valores Propiedad intelectual 1.1 ¿Qué es la ingeniería? Existe un sin fin de razones por las que la ingeniería despierta interés en los jóvenes. Muchos estudiantes comienzan a estudiar ingeniería porque se sienten atraídos por los campos de la ciencia y las matemáticas (Wickert, 2004). Otros se interesan en las distintas ramas de la ingeniería porque están motivados por sus intereses sobre tecnología o por la curiosidad de saber cómo funcionan las cosas diariamente, o visto desde una perspectiva entusiasta, cómo funcionan las cosas esporádicamente. El estudio de la ingeniería es la plataforma mediante la cual puede mejorarse todo sistema. Uno de los objetivos principales de un ingeniero es adaptar la tecnología para ofrecer soluciones que satisfagan necesidades del hombre. Esto generalmente implica construir o diseñar un dispositivo que alcance una meta que anteriormente no pudo ser alcanzada, o que no fue finalizada tan rápida, exacta o con la seguridad como se deseaba. La ingeniería es el conjunto de conocimientos y técnicas científicas aplicadas a la creación y perfeccionamiento de estructuras (tanto f ísicas como teóricas) y su implementación para la resolución de problemas que afectan la actividad cotidiana de la sociedad. A diferencia del pensamiento general, que dice que la palabra ingeniero (engineer) se encuentra asociada a un motor (engine), etimológicamente la palabra ingeniero procede de ingenio (máquina, artificio), que a su vez proviene del latín ingenium, facultad de razonar con prontitud y facilidad; en el desarrollo de sus actividades, 2 Capítulo 1 Introducción a la ingeniería además del conocimiento y la experiencia, lo que distingue al verdadero ingeniero es la imaginación, la capacidad de proponer soluciones innovadoras o alternativas a las convencionales, sin ser un inventor que razona a voluntad de su capricho. El ingeniero debe ser capaz de identificar y comprender las limitaciones (disponibilidad de recursos materiales, humanos, técnicos y económicos), así como los requisitos (por ejemplo, utilidad, seguridad, costo o estética) aplicables al objeto o sistema que pretende diseñar y construir. A partir de ese conjunto de exigencias, y utilizando sus conocimientos de las ciencias f ísicas, químicas, matemáticas, económicas, etc., y su propia experiencia, el ingeniero propone soluciones adecuadas al problema planteado. En la mayoría de los casos la solución no será única, por lo que es necesario evaluar las diferentes opciones para escoger la óptima. Definición El arte profesional de la aplicación de la ciencia para la conversión óptima de los recursos naturales en beneficio del hombre. La ingeniería es un arte que requiere del juicio necesario para la adaptación del conocimiento a usos prácticos, así como la imaginación para concebir soluciones originales a problemas concretos, y la habilidad de predecir el desempeño y el costo de nuevos procesos. Cualquiera que sea el caso, es importante reconocer que la ingeniería es distinta de los temas fundamentales sobre ciencia y matemáticas. La ingeniería es la encargada de aterrizar y dar forma a todos los avances científicos y tecnológicos, gracias a ella contamos con productos y servicios que facilitan nuestra vida diaria, desde aviones o computadoras hasta el empaque de cualquier producto. Comparación con el científico Un buen científico es una persona con ideas originales. Un buen ingeniero es una persona que hace un diseño que trabaja con el menor número posible de ideas originales. No hay divas en ingeniería. Freeman Dyson Mientras la función del científico es la búsqueda del conocimiento, la del ingeniero es la aplicación de éste. El científico añade al conocimiento verificado y sistematizado del mundo f ísico; el ingeniero hace uso y aplica el conocimiento para ocuparse de problemas prácticos. La ingeniería está basada principalmente en la f ísica, química, matemáticas y su injerencia en la ciencia de los materiales, mecanismos sólidos y fluidos, termodinámica, procesos de transferencia, sistemas analíticos y de producción, así como cualquier otro conocimiento relacionado. Básicamente, un ingeniero es un diseñador que idea sistemas para la resolución de distintos problemas de la forma más práctica y con el mínimo de recursos, espacio y tiempo posible. 3 1.1 ¿Qué es la ingeniería? Ciencia Ingeniería Tecnología FIGURA 1.1 A diferencia del científico, el ingeniero no siempre tiene libertad para seleccionar el problema que le interesa, debe resolver problemas conforme éstos van apareciendo y su solución debe satisfacer requerimientos, a menudo en conflicto. Generalmente, la eficiencia tiene un costo monetario: los requerimientos de seguridad añaden complejidad y un proceso mejorado tiene mayor relevancia. La solución del ingeniero debe ser la óptima, o al menos la más adecuada para la resolución de un problema en un contexto particular. El resultado final que tome en cuenta la mayor cantidad de factores, a menudo es el elegible. Además del conocimiento los ingenieros emplean dos tipos de recursos naturales: materiales y energía. Los materiales son útiles por sus propiedades: fuerza, facilidad de fabricación, ligereza, durabilidad, así como por su habilidad para conducir o aislar, sus propiedades químicas, eléctricas o acústicas. Importantes fuentes de energía incluyen combustibles fósiles (petróleo, carbón, gas), aire, luz solar, fuerza hidráulica y fusión nuclear. Dado que la gran mayoría de los recursos son limitados, el ingeniero debe preocuparse por la continua generación de nuevos recursos, así como por el uso eficiente de los ya existentes, sobre todo los no renovables. El resultado de las actividades ingenieriles contribuyen al bienestar del hombre, para proporcionar alimento, refugio y bienestar, haciendo más fáciles y seguros los lugares de trabajo, el transporte y la comunicación, prolongando la vida y haciéndola agradable y satisfactoria. La ingeniería es uno de los pilares del bienestar social. Funciones de la ingeniería Las ramas de la ingeniería indican con qué trabaja el ingeniero, las funciones específicas describen lo que hace el ingeniero. A continuación se muestran algunas de las funciones del ingeniero y su relación con la ciencia: • • • Investigación. La investigación del ingeniero busca nuevos principios y procesos empleando conceptos matemáticos y científicos, técnicas experimentales y razonamientos inductivos y deductivos. Desarrollo. El ingeniero aplica los resultados de la investigación a propósitos útiles que concluyen en el desarrollo de nuevos productos o procesos. Una aplicación ingeniosa y creativa del nuevo conocimiento puede resultar en un nuevo modelo de trabajo, circuito eléctrico, técnicas experimentales, un proceso químico o en una máquina industrial. Diseño. Al diseñar un proceso o un producto, el ingeniero selecciona métodos, materiales específicos, determina formas para sa- 4 Capítulo 1 Introducción a la ingeniería Matemáticas Hardware Ingeniería Ciencia Simulación por computadora FIGURA 1.2 • • • • tisfacer requerimientos técnicos y conocer algunos rendimientos específicos. Construcción. El ingeniero a menudo es responsable de la construcción de sistemas productivos, incluyendo la localización; determina procedimientos que cubrirán segura y económicamente la calidad deseada, dirigiendo el posicionamiento de materiales y organizando al personal y al equipo. Producción. Las responsabilidades del ingeniero de producción incluyen la planeación del proceso y el diseño de planta, así como la selección del equipo más adecuado, considerando factores humanos, tecnológicos y económicos. El ingeniero selecciona los procesos y las herramientas, integra el flujo de materiales y componentes y define la metodología para pruebas e inspecciones. Operación. El ingeniero operador controla máquinas, plantas y organizaciones suministrando potencia, transporte y comunicación. Él determina los procedimientos y supervisa al personal para obtener operaciones confiables y económicas en equipos complejos. Manejo y otras funciones. En algunos países e industrias los ingenieros analizan los requerimientos del cliente, recomiendan equipos para satisfacer sus necesidades de manera óptima y resolver problemas relacionados. En algunos casos deciden cómo deben ser utilizados los activos. 1.2 Historia de la ingeniería Se podría decir que la ingeniería comenzó cuando el primer hombre hizo herramientas para cazar, dándole forma a una simple piedra, o cuando de manera consciente usó energía para crear una hoguera; así, la ingeniería ha evolucionado en el tiempo a la par del hombre (Wickert, 2004). Los 1.2 Historia de la ingeniería 5 elementos que han sido considerados como esenciales en el desarrollo de la tecnología y consecuentemente en la historia del hombre son: la rueda, la palanca, la polea y el uso de metales fundidos para la creación de distintos objetos; sin embargo, las fechas exactas de estos hallazgos son desconocidas. Los primeros ingenieros fueron arquitectos, especialistas en irrigación e ingenieros militares. El primer ingeniero conocido por su nombre y logro fue Imhotep, constructor de la famosa pirámide en Sakkara, en la cercanía de Memphis, aproximadamente en el año 2550 a.C. (Hicks, 1999). Con base en métodos empíricos auxiliados por la aritmética, la geometría, así como por nociones de la ciencia física, los sucesores de Imhotep —egipcios, persas, griegos y romanos— llevaron a la ingeniería civil a alturas extraordinarias. El Faro de Alejandría, el Templo de Salomón en Jerusalén, el Coliseo en Roma, los sistemas carreteros de Roma y Persia, el acueducto de Pont du Gard en Francia y muchas otras grandes construcciones, algunas de las cuales aún perduran, testifican sus habilidades, imaginación y atrevimiento. De los muchos tratados escritos por todos ellos, uno en particular sobrevive para proveer una imagen de la enseñanza de la ingeniería y práctica en la época clásica: ‘Vitruvirus’ de arquitectura, publicado en Roma en el siglo i d.C., una obra de diez volúmenes, los cuales tratan acerca de los materiales de construcción, métodos de construcción, métodos hidráulicos, medidas y urbanismo. Las civilizaciones antiguas muestran que el trabajo sobre piedra tuvo un gran desarrollo, y así lo podemos comprobar con las inmensas estructuras en Egipto, Mesopotamia, Grecia, Roma, Lejano Oriente, América Central y América del Sur, que al día de hoy podemos visitar. Un ejemplo sería la Pirámide de Keops, la cual fue construida alrededor de los años 4235 y 2450 a.C., y que contaba originalmente con una altura de 48 pisos; a pesar del paso de miles de años todavía está en pie. Así, en la Antigüedad se comenzaron a construir inmensas ciudades, las cuales contaban también con puentes, canales, acueductos o métodos eficientes para la agricultura. Al igual que los ingenieros de la época clásica, los ingenieros de la Europa medieval combinaron sus habilidades militares y civiles, y en el reino de la construcción llevaron a la técnica (en forma de arcos góticos) a lugares muy altos y desconocidos para los romanos. El borrador de Villard de Honnecourt (1200-1250 d.C.), uno de los ingenieros del gótico más conocidos, revela el gran conocimiento de los ingenieros profesionales en áreas como las matemáticas, geometría, ciencias naturales, f ísica y diseño. En el Lejano Oriente, en India, China, Japón y otras regiones la ingeniería tuvo un desarrollo separado pero muy similar. Fue con la ayuda de extraordinarias y sofisticadas técnicas de construcción, hidráulicas y metalúrgicas que se edificaron civilizaciones tan avanzadas como el Imperio Mongol, cuyas grandes y bellas ciudades impresionaron a Marco Polo en el siglo xiii. 6 Capítulo 1 Introducción a la ingeniería El arado fue un hallazgo vital, sucedió en la Antigua China, así como también lo fue el papel y la pólvora. El Occidente no se quedó atrás, los romanos extendieron el elemento del arco, cuya capacidad era inimaginable para esos tiempos y que permitió construir la mayoría de las espectaculares catedrales góticas. La Edad Media no fue tan oscura como parece, ya que aparte de las grandes creaciones arquitectónicas que se realizaron, se inventaron infinidad de cosas, destacando la imprenta y el reloj de contrapeso, que fueron de enorme impacto para el progreso en la historia. Fueron Georgius Agrícola y Galileo Galilei quienes establecieron las primeras bases científicas de la ingeniería. Agrícola, en 1556, recopiló y organizó sus conocimientos sobre metalurgia y minería de manera sistemática, para posteriormente documentarlo y publicar su obra maestra De Re Metallica. Sobre Galileo Galilei todos tienen una idea de quién fue, sobre todo por sus observaciones astronómicas. También intentó desarrollar teorías de tensión para estructuras, aunque al no calcular la elasticidad de los materiales sus cálculos fueron erróneos. Sin embargo, en 1678 las bases de la actual teoría de la elasticidad se dieron a conocer, cuando Robert Hooke publicó el primer artículo sobre este tema. Así como ellos, en la historia han existido muchos grandes genios, cuyos descubrimientos han hecho llegar a la humanidad hasta donde está. Ya en el siglo xvii, ocurrió un acontecimiento extraordinario: el hombre descubrió la manera de transformar la energía calorífica en trabajo mecánico. Pero para alcanzar este hallazgo muchos descubrimientos tuvieron que suceder: Evangelista Torricelli inventó el barómetro, y junto con Galileo “descubrieron” la atmósfera; Blaise Pascal descubrió la presión atmosférica. En 1672, Otto von Guericke desarrolló un cilindro con un pistón móvil, que fue la primera bomba de aire, la cual sería el principio del motor de combustión. En 1690, Denis Papin relató en un ensayo publicado la invención de la primera máquina atmosférica de vapor. A principios del siglo xviii, Thomas Newcomen construyó, con las bases de Papin, la primera máquina de vapor funcional, y 70 años después James Watt mejoró tremendamente la máquina de vapor, siendo la base de la Revolución Industrial. Entre 1700 y 1950 se vivieron enormes cambios en los sistemas de producción; hacia 1750 el motor de Watt se usaba de forma general y por el año 1825 aparecieron las primeras locomotoras. Comenzaron a situarse fábricas casi en cualquier lugar, también se creó la necesidad de grandes cantidades de uso de combustible, que en este caso fue el carbón, para transformarlo en suficiente poder calorífico para lograr fundir los metales, principalmente el hierro. Durante el siglo xix y principios del xx la explotación de la mano de obra iba creciendo en las ciudades, haciendo de éstas lugares sucios, contaminados e impersonales. A pesar de este hecho, se debe admitir que la evolución y mejoramiento en los sistemas de fabricación provocaron un gran avance en la productividad, lo que mejoró sobremanera el nivel de 1.2 Historia de la ingeniería 7 vida en las naciones industrializadas. Todo este movimiento comenzó en Inglaterra y supuso una tremenda transformación de la economía y la sociedad británica. La cantidad de productos manufacturados creció exponencialmente, ya que por fin se usaban técnicas eficaces. Toda especialización laboral aumentaba día con día. Procesos parecidos se experimentaron a mediados del siglo xix en Bélgica, Francia, Alemania y, principalmente, Estados Unidos; en Japón y Suecia sucedió a finales de siglo; en Rusia y Canadá este movimiento llegó a principios del siglo xx, y a mediados en Oriente Próximo, Asia Central y algunos países de Latinoamérica. La industria del ferrocarril era de las que más atención tenía. En el siglo xix se alcanzó un hallazgo de enorme valor: el motor de combustión interna; en la segunda mitad del siglo se hicieron experimentos en esta línea, principalmente por los alemanes Otto y Diesel, lo que llevó a los principios del motor que usan la mayoría de los automóviles hoy en día. Michael Faraday formuló un principio fundamental: la capacidad de inducir corriente eléctrica a partir de cambios en un campo magnético. La ingeniería en telecomunicaciones se basa en este principio, cuando se inventó el telégrafo en 1836, gracias a Samuel F. B. Morse. Contando con un principio eléctrico aparecieron los primeros motores eléctricos. Thomas A. Edison desarrolló el foco, conocido como bombilla eléctrica, y el crecimiento del alumbrado disparó la demanda de electricidad. En 1890 ya existían modernos generadores, los cuales fueron de gran uso en toda industria que quisiera utilizar la energía eléctrica, es decir, casi todas. En su obra Reflections on the Motive Power of Fire, Sadi Carnot concibió un ciclo termodinámico que constituye el ciclo básico de todos los motores térmicos, junto con la Segunda Ley de la Termodinámica. Se le unió James C. Maxwell, quien también explicó las propiedades más importantes del electromagnetismo; amplió la investigación de Faraday, demostrando la relación matemática entre los campos magnéticos y eléctricos. En 1888, Nicola Tesla diseñó el primer sistema práctico para generar y transmitir corriente alterna para sistemas de energía eléctrica. Estos diseños y descubrimientos representan las raíces de la radiocomunicación. La mayor parte de los logros del siglo xx tiene fundamento en los descubrimientos de los siglos anteriores. Sin embargo, existen dos desarrollos que han afectado tremendamente la ingeniería: la teoría de la relatividad de Einstein y la aparición de la mecánica cuántica. Asimismo, el avance en la investigación y la constante búsqueda de nuevos conocimientos ha seguido su vertiginoso ritmo; en los últimos años se han incorporado campos del conocimiento que antes no formaban parte de la ingeniería, como la genética y la investigación nuclear. A pesar de existir un número cada vez mayor de ramas de la ingeniería, persiste la necesidad de contar con conocimientos básicos de áreas afines, ya que gran parte de los problemas a los que se enfrentan los ingenieros están interrelacionados. 8 Capítulo 1 Introducción a la ingeniería Las primeras instituciones El impacto y el potencial de las actividades realizadas por los ingenieros, así como la necesidad de contar con escuelas e institutos específicamente dedicados a esta área del conocimiento, fueron reconocidos desde hace más de dos siglos. El Real Seminario de Minería en México se funda el 1 de enero de 1792, y se le dota del más distinguido cuerpo de profesores que pueda conjuntarse, encabezado por el insigne Fausto de Elhuyar; es la primera escuela de Latinoamérica. En 1795, en París, Napoleón accedió a que se fundara L´École Polytechnique, la cual se convirtió en la primera escuela de ingeniería en el mundo. Tiempo después, en 1824, se fundó la primera escuela de ingeniería de Estados Unidos, The Rensselaer Polytechnic Institute (Hicks, 2001). Hasta finales del siglo xix la ingeniería era sólo civil o militar. Sin embargo, en 1880 nació la Sociedad Estadounidense de Ingenieros Mecánicos; cuatro años más tarde se fundó la Sociedad Estadounidense de Ingenieros Eléctricos, y en 1908 el Instituto Estadounidense de Ingenieros Químicos. Tuvieron que pasar 40 años para que surgiera el último gran campo dentro de las ingenierías, así es como en 1948 se funda el Instituto Estadounidense de Ingenieros Industriales. La formalización de las carreras de ingeniería, así como la creación de nuevas escuelas, centros de investigación, empresas y sociedades de ingeniería, también sirvieron de motor para continuar descubriendo aplicaciones de la ciencia y lograr mejoras en la humanidad. Los 20 principales logros de la ingeniería en el siglo XX La mayoría de historiadores coincide en que el siglo pasado fue el más productivo en toda la historia de la humanidad en cuanto a la cantidad y el impacto de los descubrimientos. A continuación se presenta lo que para algunos son los 20 hallazgos más grandiosos de la ingeniería en el siglo xx, según la Academia Nacional de Ingeniería de Estados Unidos. En esta sección no se pretende dar un orden jerárquico en cuanto a la importancia de los hallazgos, tampoco se plantean estos 20 como los únicos de relevancia. Más allá de esto, esta sección presenta al estudiante una serie de hallazgos producto del trabajo de muchos ingenieros, por lo que ilustra en parte cómo la ingeniería ha transformado y cambiado al mundo entero. 1. Electrificación. En el siglo xx una electrificación extendida le brindó poder a nuestras ciudades, fábricas, granjas y a todos los hogares, lo que cambió para siempre nuestras vidas. Miles de ingenieros hicieron que sucediera, con trabajo innovador en fuentes de combustible, técnicas para la generación de potencia y redes de distribución de transmisión eléctrica. Pasamos de faroles a supercomputadoras, la energía eléctrica hace nuestra vida más segura, sana y confortable. 1.2 Historia de la ingeniería 9 2. Automóvil. El automóvil podría ser el último símbolo de la libertad personal. Es también el mayor transportista de personas y bienes en el mundo, y es una importante fuente de crecimiento económico y de estabilidad. El automóvil es un espectáculo del ingenio de la ingeniería del siglo xx, habiendo experimentado innumerables innovaciones del diseño, en la producción y la seguridad. 3. Aviones. Hasta hace poco se podía ir de Europa a América en 4 horas en el Concorde, mientras que en 1900 el mismo viaje tomaba de 7 a 10 días en barco. La transportación aérea moderna es responsable del rápido flujo de bienes y personas alrededor del mundo, facilitando nuestra interacción personal, cultural y comercial. La innovación de la ingeniería, de los hermanos Wright a jets supersónicos, ha hecho todo esto posible. 4. Suministro y distribución del agua. Hoy, el simple hecho de girar una llave nos proporciona agua limpia: un invaluable recurso. Los avances de la ingeniería para manejar este recurso, con el tratamiento de agua, el suministro y sistemas de distribución, cambiaron profundamente la vida en el siglo xx, eliminando virtualmente las enfermedades en países en vías de desarrollo, y proporcionando agua limpia y abundante para comunidades, cultivos e industrias. Esta tarea lleva un importante camino recorrido, pero todavía dista de estar concluida, tal y como se expresa en las Naciones Unidas al indicar que el suministro de agua potable y alcantarillado en los países en vías de desarrollo es una de las prioridades de este siglo xxi (Cumbre Mundial de Johannesburgo, 2002). 5. Electrónica. La electrónica proporciona la base de un sinnúmero de innovaciones: reproductores de CD, televisiones y computadoras, válvulas electrónicas, transistores y circuitos integrados, por citar algunos productos. Los ingenieros han hecho la electrónica más pequeña, poderosa y eficiente, preparando el terreno para los productos que han mejorado la calidad y el confort de la vida moderna. 6. Radio y televisión. La radio y la televisión fueron grandes agentes del cambio social en el siglo xx, abriendo ventanas a otras vidas, a lugares remotos del mundo y a la construcción de la historia. Del telégrafo inalámbrico a los avanzados sistemas satelitales actuales los ingenieros han desarrollado tecnologías notables que informan y entretienen a millones cada día. 7. Mecanización de la agricultura. La maquinaria del campo, tractores, cultivadores, cosechadoras y centenares de otros dispositivos aumentó drásticamente la eficiencia del campo y productividad en el siglo xx. A comienzos de ese siglo, cuatro campesinos podían alimentar a cerca de 10 personas; al fi nal, con la ayuda de 10 Capítulo 1 8. 9. 10. 11. 12. 13. Introducción a la ingeniería las innovaciones en mecanización agrícola un solo campesino puede alimentar a más de 100. Computadoras. La computadora es un símbolo que defi ne a la tecnología del siglo xx, un instrumento que ha transformado negocios y vidas alrededor del mundo, incrementó la productividad y abrió las puertas al conocimiento. Las computadoras convirtieron el trabajo pesado en tareas sencillas y brindaron nuevas capacidades a tareas complejas. La genialidad de la ingeniería en computación le dio marcha a esta revolución y continúa haciendo computadoras más rápidas, poderosas y económicas. Teléfono. El teléfono es un elemento fundamental de la vida moderna. Las conexiones casi instantáneas entre amigos, familias, negocios y naciones permiten comunicaciones que mejoran nuestra vida, industrias y economías. Con notables innovaciones los ingenieros nos han brindado desde alambres de cobre hasta la fibra óptica, de centrales telefónicas a satélites y de líneas comunes a celulares e internet. Aire acondicionado y refrigeración. El aire acondicionado y la refrigeración cambiaron la vida inmensamente en el siglo xx. Docenas de innovaciones ingenieriles hicieron posible transportar y almacenar alimentos frescos, y adaptar cualquier ambiente a las necesidades humanas. Alguna vez costosos y caros, el aire acondicionado y la refrigeración son satisfactores ahora comunes que aumentan nuestra calidad de vida. Autopistas. Las autopistas proporcionan una de las más grandes ventajas de la vida moderna: la libertad de la movilidad personal. La historia de su construcción es una de las más notables del siglo xx. Miles de ingenieros diseñaron y construyeron los caminos, puentes y túneles que conectan nuestras comunidades, permitiendo que los bienes y servicios alcancen áreas remotas, alienten el crecimiento y faciliten el comercio. Naves espaciales. Desde pruebas tempranas de cohetes a sofisticados satélites, la experiencia humana en el espacio es, quizás, la proeza que más asombra a la humanidad del siglo xx. El desarrollo de naves espaciales ha estremecido el mundo, ampliado nuestra base de conocimiento y mejorado nuestras capacidades. La investigación en programas espaciales ha beneficiado también a la humanidad, ya que miles de productos útiles y servicios han resultado del programa de investigaciones espaciales, inclusive dispositivos médicos, mejores pronósticos del tiempo y comunicaciones inalámbricas. Internet. Inicialmente fue un instrumento para ligar a los centros de cómputo con centros de investigación avanzada. El Internet ha llegado a ser un instrumento esencial del cambio social, un vehícu- 1.2 Historia de la ingeniería 14. 15. 16. 17. 18. 11 lo que promueve mayores innovaciones de la ingeniería, un agente de cambio en la práctica empresarial, los objetivos educativos y las comunicaciones personales. Proporcionando el acceso global a noticias, al comercio y a grandes fuentes de información, el Internet nos une y agrega eficiencia a nuestras vidas. Procesamiento de imágenes. De átomos diminutos a galaxias lejanas, el siglo xx se llena de imágenes obtenidas gracias a las tecnologías, estas imágenes han ensanchado el alcance de nuestra visión. Visualizando el interior del cuerpo humano, trazando fondos del océano, rastreando las pautas de tiempo, todo es el resultado de los avances del procesamiento de imágenes. Emparejado con la computadora, nos da vistas nuevas e increíbles de todo aquello que nos rodea, visible o invisible al ojo humano. Aparatos domésticos. Los aparatos domésticos cambiaron radicalmente el estilo de vida del siglo xx, eliminando gran parte del trabajo de tareas diarias. La innovación generada por la ingeniería produjo una gran variedad de dispositivos, incluyendo extensiones eléctricas, aspiradoras, lavadoras, lavaplatos y secadoras. Estos y otros productos nos dan más tiempo libre, permiten que las personas puedan trabajar fuera del hogar y contribuyan a nuestra economía. Tecnologías para la salud. Los avances en la tecnología médica en el siglo xx fueron asombrosos. Armados con sólo unos pocos instrumentos en 1900, los profesionales médicos ahora tienen un arsenal de equipos para el diagnóstico y tratamiento clínico a su disposición. Los órganos artificiales, prótesis remplazables, tecnologías en procesamiento de imágenes y biomateriales, son sólo algunos de los productos dirigidos que mejoran la calidad de vida a millones. Tecnologías del petróleo y petroquímicas. El petróleo ha sido un componente fundamental en la vida del siglo xx; proporciona el combustible para automóviles, hogares e industrias. También de suma importancia son los productos petroquímicos, que se utilizan en la fabricación desde la aspirina hasta las cremalleras. Todo comenzó dirigiendo los avances en la exploración del petróleo y su procesamiento; los derivados del petróleo han tenido un enorme impacto en economías de mundo, en las personas y la política. Láser y fibras ópticas. Pulsos de luz provenientes de un láser se utilizan en instrumentos industriales, en dispositivos quirúrgicos, en los satélites, entre otros. En comunicaciones, hoy en día las fibras de vidrio sumamente puras proporcionan la infraestructura para llevar información vía luz láser, un logro técnico revolucionario. Un solo cable de fibra óptica puede transmitir decenas de millones de llamadas telefónicas, archivos de datos e imágenes de video. 12 Capítulo 1 Introducción a la ingeniería 19. Tecnologías nucleares. La utilización del átomo cambió la naturaleza de la guerra para siempre y asombró al mundo con su impresionante poder. Las tecnologías nucleares también nos dieron una nueva fuente para la generación de energía eléctrica y capacidades nuevas en la investigación médica y el procesamiento de imágenes. Aunque polémicos, los logros de la ingeniería relacionados con tecnologías nucleares deben considerarse entre los más importantes del siglo xx. 20. Materiales de alto rendimiento. Desde los bloques de construcción de hierro y acero, hasta los últimos avances en polímeros, cerámica y compuestos, el siglo xx vio una revolución en materiales. Los ingenieros los han hecho a la medida y han aumentado sus propiedades para permitir su uso en miles de aplicaciones. Los materiales de alto rendimiento utilizados en aviones, dispositivos médicos, computadoras y otros productos tienen un gran impacto en nuestra calidad de vida. La ingeniería y el diseño. Un aspecto en común que puede identificarse en el listado de los 20 logros de la ingeniería presentados es que en todos ellos interviene el proceso de diseño. Éste busca satisfacer una necesidad del hombre mediante la conjunción de las tecnologías existentes disponibles y/o la adaptación de tecnologías emergentes. El diseño va más allá de la conceptualización de productos y abarca sistemas integrados de personas, materiales, información, equipo y energía. El diseño es una de las funciones más importantes en la actividad profesional del ingeniero. La búsqueda e identificación de la mejor solución ante un problema determinado son una de las razones de la ingeniería, y el proceso de diseño una de las metodologías más utilizadas. El proceso de diseño en ingeniería puede resumirse en las siguientes etapas: 1. 2. 3. 4. 5. 6. 7. 8. Definición del problema y alcance de la solución. Identificación de restricciones del problema. Búsqueda de información relacionada. Planteamiento de posibles soluciones. Eliminación de soluciones no viables. Identificación de la mejor solución. Definición de las especificaciones de la solución. Comunicación de la solución. Este proceso se aplica para las distintas ramas de la ingeniería, independientemente del tipo de problema y de los alcances de la solución deseada. La figura 1.3 ilustra las distintas ramas de la ingeniería y el tipo de actividades en las que se enfoca cada una de estas ramas. 1.3 Perfil del ingeniero Otros 28% Mineral 1% 13 Eléctrico y electrónico 24% Nuclear 1% Mecánico 15% Petróleo 1% Materiales 1% Químico 3% FIGURA 1.3 Industrial 3% Civil 13% Aeroespacial 4% 1.3 Perfil del ingeniero La principal característica de un ingeniero es su capacidad para resolver problemas gracias al amplio dominio práctico y teórico de matemáticas, f ísica y química, así como cualquier otro conocimiento relacionado con su área. Dentro de las principales habilidades que un ingeniero debe poseer se encuentran las siguientes: El liderazgo y la correcta evaluación de información son habilidades fundamentales para que un ingeniero realice su trabajo de la mejor manera. Las responsabilidades del ingeniero y el constante bombardeo de información lo obligan a desarrollar capacidades para filtrar, separar, organizar información para definir rutas y tomar decisiones. El ingeniero debe tener habilidades para dirigir a un grupo de personas, delegar, escuchar, convencer y buscar el bienestar de todos. La capacidad analítica es un recurso al cual el ingeniero recurre constantemente, lo que le brinda la forma de plantear los problemas de manera más sencilla, descomponiéndolos en todos sus elementos y definiendo la estrategia para lograr la solución óptima y en el menor tiempo posible. Existe la tendencia a visualizar al ingeniero como un técnico; aquella persona que al saber el funcionamiento de ciertos sistemas puede repararlos o mejorarlos. Pero como la misma palabra lo indica, la principal función de un ingeniero es desarrollar el ingenio, innovar en el campo que se desempeñe. Esto nos lleva a que un ingeniero debe ser creativo, característica crucial que debe poseer. 14 Capítulo 1 Introducción a la ingeniería Un ingeniero nunca trabaja solo, su trabajo intrínsecamente necesita de la incorporación de un mayor número de personas, debido a la complejidad de los problemas a los que se enfrenta. Ahora estos grupos de trabajo normalmente van a ser multidisciplinarios, donde un ingeniero no se encontrará sólo con otros ingenieros o personas del medio científico, sino también con arquitectos, administradores e incluso abogados. Así, un ingeniero debe poseer tanto la capacidad de comunicar de forma clara y concisa, oral o escrita (lo que desea), como la capacidad de trabajar en equipo y poder sacar lo mejor de cada persona con la que trabaja, para llegar a la solución de cualquier problema de forma más rápida. 1.4 Ética profesional y valores Uno de los aspectos que cada día cobra mayor relevancia dentro de la formación del ingeniero es la ética profesional y los valores. Aunque hace un par de décadas sólo algunas escuelas de ingeniería en el mundo otorgaban créditos académicos en materias sobre ética profesional, hoy en día se ha convertido en una parte importante dentro de la formación del ingeniero. En este sentido, los medios de comunicación han jugado un papel importante al divulgar las prácticas de compañías trasnacionales y las decisiones de sus directivos, las cuales, en algunos casos, han repercutido en consecuencias lamentables. El texto sobre ética en la ingeniería de Fleddermann (1999) representa un banco de casos de estudio en el campo del comportamiento de los profesionales, y de él se extrae el siguiente caso: En 1978 se registró un accidente de tránsito donde un vehículo Ford Pinto fue golpeado por la parte de atrás. El impacto provocó una fisura en el tanque de gasolina del auto, lo cual generó un incendio y la muerte de tres pasajeros. Ésta no era la primera vez que un automóvil Pinto se incendiaba como resultado de una colisión trasera. En los últimos siete años ya se habían registrado cerca de 50 demandas relacionadas con impactos traseros. Sin embargo, esta vez Ford fue demandado ante una corte criminal en Estados Unidos por la muerte de los pasajeros. Esto significaba que algunos ingenieros o gerentes de la empresa podrían ir a la cárcel por negligencia. Las investigaciones demostraron que a pesar de que el diseño del tanque cumplía con los estándares federales de seguridad de aquel entonces, había varios estándares de ingeniería que no se cumplían. Más aún, en el juicio se determinó que algunos ingenieros de Ford estaban conscientes del riesgo que representaba el diseño del tanque, pero los directivos de la empresa estaban más preocupados por tener listo el Pinto y lanzarlo rápidamente al mercado a un precio competitivo, en relación con otros autos subcompactos que ya estaban en el mercado. El dilema que enfrentaron los ingenieros de diseño se resumía en un balance entre la seguridad de los pasajeros y la necesidad de producir el automóvil a un precio que fuera 1.4 Ética profesional y valores 15 competitivo en el mercado. En otras palabras, balancear sus obligaciones con los consumidores y sus obligaciones dentro de la empresa. Al final, el intento de Ford por ahorrarse algunos dólares en la manufactura le representó millones de dólares en pagos a sus abogados y a las víctimas, sin mencionar el efecto que tuvo en la percepción del público y la consecuente caída en ventas. El número de casos documentados es cada vez mayor, al grado que casi todas las asociaciones de ingeniería publican su código de ética. Se sugiere revisar los códigos de ética y los casos (algunos incluyen respuestas) en la dirección electrónica del Institute of Industrial Engineers para el caso de ingeniería industrial, y la correspondiente dirección para las carreras de ingeniería electrónica, ingeniería civil, ingeniería mecánica, ingeniería química; la National Science Fundation, y en particular, The Online Ethics Center for Engineering & Science, las direcciones de algunos de estos institutos se presentan al final del capítulo. También se sugiere al estudiante investigar en las asociaciones e institutos de ingeniería de su país. La necesidad de la ética En términos generales, la ética profesional y los valores involucran cuestiones de responsabilidad, solución de problemas y toma de decisiones ante diversas situaciones. Día a día, el ser humano se enfrenta a la necesidad de hacer elecciones para cada actividad que realiza y en esto se funda la necesidad de la ética. Siempre existen infinidad de opciones a elegir, se tienen más de una forma de realizar una asignación y más de una manera de resolver un problema. Así, el hombre elige la manera que más le agrada, que más le conviene, eligiendo una alternativa y no otra (Mitcham, 2001). Se sabe que una persona puede desempeñar bien o mal una tarea, hacer daño o ayudar a otro de distintas maneras, elegir una herramienta en lugar de otra, etc. Aquí es donde entra la ética, la cual brinda una opción basada en experiencias de asuntos humanos. El hombre es libre, por eso puede elegir, y con esa libertad viene la ética y, por supuesto, muchas responsabilidades. La ética es como una guía en la toma de decisiones. Pero estas decisiones no habían sido siempre notorias en el ámbito de las actividades técnicas. El hecho de que la tecnología haya evolucionado tanto en las últimas décadas ha provocado que los planes de estudio de las carreras de ingeniería cambien, creciendo el interés por la importancia de la responsabilidad ética y social de los ingenieros, así como los valores que los mismos deben tener. El ingeniero lleva consigo la enorme responsabilidad de la toma de decisiones. Es por eso que el hecho de formar profesionales técnicamente aptos y competentes, y que además cuenten con una sensibilidad ética y con valores, es todo un reto. Para que un ingeniero cumpla su deber, tanto técnica como éticamente, debe tener claros los siguientes conceptos: po- 16 Capítulo 1 Introducción a la ingeniería seer un juicio y sensibilidad éticos, conocer estándares de conducta y actuar éticamente (saber actuar bien sin que nadie se lo indique). Todos los conceptos anteriores coinciden en que la responsabilidad profesional está fundamentada por éstos, es decir, se convierte en una responsabilidad moral que se forma al adquirir estos conocimientos. Así, los ingenieros deben reconocer que la vida, la seguridad, la salud y el bienestar de la población dependen de su juicio, y que la vida siempre se encuentra por encima del bien material. Un ingeniero responsable tiene como objetivo crear un producto o servicio tecnológico, seguro y, sobre todo, útil para que el cliente se sienta satisfecho y esté seguro al hacer uso de éste, en caso de que tuviera algún riesgo. Con esto viene una responsabilidad, un compromiso con la sociedad, para mantener siempre su bienestar, su salud y su seguridad. El problema que tiene el ser humano como individuo es que cada uno tiene intereses personales, los cuales afectan directamente el comportamiento moral del individuo. Actividades como lealtad a los compañeros o socios, lealtad a la empresa, entrega de cuentas claras y manejo correcto de información clasificada podrían resultar afectadas cayendo en actos deshonestos, como sobornos, actos de cohecho, venta de información, entre otras. Existen varios códigos de ética que a lo largo del tiempo se han incluido en la educación del ingeniero, pero el instrumento que más respuesta ha tenido es el método de usar y resolver casos. Éstos pueden ser casos que sucedieron en la vida real, o ficticios con supuestos definidos. Se le brinda al alumno toda la información necesaria sobre éstos, y su deber es resolverlos de la mejor manera posible, dándole obviamente prioridad a la ética. Esto puede ir desarrollando un sentido o habilidad ética para resolver problemas que se verán reflejados en la práctica. Las instituciones educativas deben preocuparse por que sus estudiantes formen una conciencia social. La gente joven cuenta con la habilidad y motivación para realizar correctamente los trabajos o tareas que le son asignados, es por ello que en esta etapa se debe crear esta conciencia. Todos los proyectos en ingeniería deben analizarse desde cuatro perspectivas: factibilidad técnica, social, económica y ambiental. En todo el mundo se viven cambios constantemente, cambios que no siempre traen buenas consecuencias, por lo que resulta de suma importancia incrementar el número de personas capaces de aplicar todos sus conocimientos de una manera responsable no sólo en el aspecto técnico, sino también en el ético. En muchos países y en distintas organizaciones e instituciones se crean códigos de ética para que el ingeniero los aplique cuando realice su trabajo. Una búsqueda realizada por los autores de este capítulo y la retroalimentación de varias fuentes de información en Latinoamérica indican que existen bastantes similitudes entre los códigos de ética de cada país. A continuación se muestra un ejemplo con el código de ética que la 1.4 Ética profesional y valores 17 Asamblea General Ordinaria de la Unión Mexicana de Asociaciones de Ingenieros adoptó: El ingeniero reconoce que el mayor mérito es el trabajo, por lo que ejercerá su profesión comprometido con el servicio a la sociedad mexicana, atendiendo al bienestar y progreso de la mayoría. Al transformar la naturaleza en beneficio de la humanidad, el ingeniero debe acrecentar su conciencia de que el mundo es la morada del hombre y de que su interés por el universo es una garantía de la superación de su espíritu y del conocimiento de la realidad para hacerla más justa y feliz. El ingeniero debe rechazar los trabajos que tengan como fin atentar contra el interés general; de esta manera evitará situaciones que impliquen peligros o constituyan una amenaza contra el medio ambiente, la vida, la salud y demás derechos del ser humano. Es un deber ineludible del ingeniero sostener el prestigio de la profesión y velar por su cabal ejercicio; asimismo, mantener una conducta profesional cimentada en la capacidad, la honradez, la fortaleza, la templanza, la magnanimidad, la modestia, la franqueza y la justicia, con conciencia de subordinar el bienestar individual al bien social. El ingeniero debe procurar el perfeccionamiento constante de sus conocimientos, en particular de su profesión; divulgar su saber; compartir su experiencia; proveer oportunidades para la formación y la capacitación de los trabajadores; brindar reconocimiento, apoyo moral y material a la institución educativa en donde realizó sus estudios, de esta manera revertirá a la sociedad las oportunidades que ha recibido. Es responsabilidad del ingeniero que su trabajo se realice con eficiencia y apoyo a disposiciones legales. En particular, velará por el cumplimiento de las normas de protección a los trabajadores establecidas en la legislación laboral mexicana. En el ejercicio de su profesión, el ingeniero debe cumplir con diligencia los compromisos que haya asumido y desempeñará con dedicación y lealtad los trabajos que se le asignen, evitando anteponer su interés personal en la atención de los asuntos que se le encomienden, o coludirse para ejercer competencia desleal en perjuicio de quien reciba sus servicios. Observará una conducta decorosa, tratando con respeto, diligencia, imparcialidad y rectitud a las personas con las que tenga relación, particularmente a sus colaboradores, absteniéndose de incurrir en desviaciones y abusos de autoridad y de disponer o autorizar a un subordinado conductas ilícitas, así como de favorecer indebidamente a terceros. 18 Capítulo 1 Introducción a la ingeniería Debe salvaguardar los intereses de la institución o persona para la que trabaje y hacer buen uso de los recursos que se le hayan asignado para el desempeño de sus labores. Cumplirá con eficiencia las disposiciones que en ejercicio de sus atribuciones le dictaminen sus superiores jerárquicos, respetará y hará respetar su posición y trabajo; si discrepara de sus superiores tendrá la obligación de manifestar ante ellos las razones de su discrepancia. El ingeniero tendrá como norma crear y promover la tecnología nacional; pondrá especial cuidado en vigilar que la transferencia tecnológica se adapte a nuestras condiciones conforme al marco legal establecido. Se obliga a guardar secreto profesional de los datos confidenciales que conozca en el ejercicio de su profesión, salvo que le sean requeridos por autoridad competente. 1.5 Propiedad intelectual Un área importante dentro de las actividades y el campo de acción del ingeniero es la gestión de la propiedad intelectual. En la actualidad, empresas privadas y centros de investigación en ingeniería llevan a cabo trabajos orientados a la generación de conocimiento tecnológico, que eventualmente es susceptible de ser transferido a la industria. En la mayoría de casos el énfasis en el trabajo del investigador es descubrir y deja a un lado la protección de los derechos de autor y el valor económico que podría generar a los usuarios y a las instituciones. Aunado a lo anterior, hoy en día es común encontrar que los gobiernos de la mayoría de los países aumentan las exigencias para que el trabajo de investigación generado en centros públicos sea transferido y genere recursos propios. El ingeniero no puede mantenerse al margen de la gestión de la propiedad intelectual. La gestión de la propiedad intelectual va más allá de la simple protección del conocimiento generado, e incluye la vigilancia del patrimonio tecnológico, la generación de políticas de transferencia de tecnología o licenciamiento, la selección y diseño de proyectos y políticas de promoción de los inventos, y su impacto a lo largo de todas las actividades que le agreguen valor. Desde una perspectiva jurídica, no es suficiente con haber hecho un descubrimiento, desarrollado una máquina más eficiente, un proceso más rápido, un software más robusto o, en términos generales, un mejor producto. Es imprescindible registrar la autoría intelectual ante las autoridades correspondientes. Existen algunas recomendaciones generales para el ingeniero involucrado en las cuestiones de propiedad intelectual, entre las que destacan: 1. Definir las líneas y las actividades de investigación conforme a la estrategia de la empresa o centro de investigación público. Ejercicios propuestos 19 2. Definir criterios de evaluación de proyectos y selección de proyectos de investigación conforme a las líneas estratégicas de la empresa y sus posibilidades de transferencia y comercialización. 3. Comunicar a los investigadores el estatus de la empresa o instituto y sus prioridades de investigación. 4. Evaluar continuamente los proyectos, considerando la propiedad intelectual que se podría obtener, clientes potenciales, tiempo de vida de la innovación, países donde se solicitaran los títulos de propiedad intelectual, costo de los títulos y el tiempo de vigencia. 5. No llevar a cabo ningún convenio de comercialización sin antes haber registrado la autoría intelectual del producto. 6. Definir ante el comercializador acciones de protección y vigilancia de los derechos de autor. Proteger el conocimiento generado no suele ser un proceso costoso en cuanto a los trámites necesarios y puede representar una importante fuente de ingresos y, lo que es más importante, el respeto del esfuerzo y los descubrimientos que se generan. En consecuencia, el ingeniero no debe pasar inadvertido el aspecto de propiedad intelectual, sino por el contrario, debe buscar constantemente oportunidades que garanticen la protección y el aprovechamiento de sus descubrimientos. EJERCICIOS PROPUESTOS 1. ¿Qué características considera que lo harían un buen ingeniero? Considere el perfi l descrito del ingeniero. 2. ¿Qué es la ingeniería y a qué se dedica? 3. ¿Qué diferencia a un ingeniero del resto de las profesiones? 4. ¿En qué son diferentes un ingeniero de un científico? ¿Cómo se complementan? 5. Describa las funciones del ingeniero respecto de la producción. 6. ¿Cómo ha evolucionado el concepto de ingeniero desde sus inicios a la actualidad? 7. ¿Cuáles considera que fueron los tres desarrollos ingenieriles más importantes de la Edad Media? Justifique su respuesta. 8. ¿Qué fue la Revolución Industrial y cuáles fueron sus mayores aportaciones? 9. Describa los tres principales logros de la ingeniería en el siglo xx que considere causaron el mayor impacto social. 10. Dé un ejemplo en el cual se haya actuado conforme o en contra de la ética profesional del ingeniero industrial y mencione por qué es necesario aplicar la ética profesional. 11. Investigue qué requisitos son necesarios para conseguir la propiedad intelectual de una patente y qué organismo es el encargado de proporcionarla. 20 Capítulo 1 Introducción a la ingeniería Referencias American Institute of Chemical Engineers (AIChE). http://www.aiche.org American Society of Civil Engineers (ASCE). http: //www.asce.org American Society of Mechanical Engineers (ASME). http://www.asme.org Enciclopedia Británica (1998). Vol. 6, pp. 860-862. Encyclopedia Britannica, Inc, Gran Bretaña. Facultad de Ingeniería (2001). Ética e ingeniería. Universidad Católica de la Santísima Concepción. Chile. Fleddermann, C. B. (1999). Engineering Ethics. Prentice Hall. Estados Unidos. Grech, P. (2001). Introducción a la ingeniería. Prentice Hall. Colombia. Harris, C. E., Pritchard, M. S. y Rabins, M. J. (1995). Engineering Ethics, Concepts and Cases. Wadsworth Publishing Company. Estados Unidos. Hicks, P. (2001). Ingeniería industrial y administración, 2a. Ed. CECSA. México. Institution of Chemical Engineers. Inglaterra. http: //www.icheme.org Mitcham, C. y García de la Huerta, M. (2001). La ética en la profesión del ingeniero. Facultad de Ciencias y Matemáticas de la Universidad de Chile. Santiago de Chile. National Academy of Engineering et al. (2000). Greatest Engineering Achievements of the 20th Century. www.greatachievements.org National Science Foundation. Engineering Ethics Case Studies. http://lowery.tamu.edu/ethics/, 1999. The Online Ethics Center for Engineering & Science. http://onlineethics.org The Institute of Electrical and Electronics Engineers. http://www.ieee.XXX UMAI, Asamblea General Ordinaria (1983). Código de ética profesional del ingeniero mexicano. México. Wickert, J. (2004). An Introduction to Mechanical Engineering. Thomson. Estados Unidos. CAPÍTULO 2 El mundo de la ingeniería AUTORES: Sergio Romero Hernández Omar Romero Hernández David Muñoz Negrón Con la colaboración de Rodrigo Nava Ramírez 2.1 2.2 2.3 2.4 2.5 Ingenieros más notables Ramas de la ingeniería El estudio y campo laboral de la ingeniería Asociaciones de ingeniería Últimos desarrollos ingenieriles en diferentes sectores 2.6 Retos y nuevas fronteras 2.7 Conclusiones Una vez establecido, en lo general, lo que es la ingeniería, es importante conocer los alcances de la misma, desde el sector alimenticio hasta computación; la ingeniería es uno de los principales motores de cambio de la sociedad y va de la mano con el desarrollo del ser humano. Para explicar esto, se presentarán algunos de los más importantes avances de la ingeniería, por medio de un pequeño vistazo a los logros de los más notables ingenieros de la historia. Una vez entendida la importancia que ésta ha tenido en el pasado, iremos al presente, donde observaremos a las distintas ramas de la ingeniería, las más importantes instituciones y asociaciones, así como los más notables logros realizados en los últimos años. Finalmente se presentará qué hay en el horizonte de la ingeniería, cuáles son sus retos y oportunidades. 2.1 Ingenieros más notables Muchos de los cambios históricos de la humanidad se han dado a través del desarrollo de avances tecnológicos o científicos que cambian la forma de pensar y hacer las cosas de la sociedad, cambian las tradiciones y generan progreso. Ahora, por la misma naturaleza de estos cambios, se puede observar que los principales agentes de cambio son precisamente los científicos e ingenieros. A continuación se describirán en orden cronológico algunos de los hombres más notables de la ingeniería, así como sus aportaciones a la historia de la humanidad. Arquímedes de Siracusa (287 a.C.-212 a.C.). Reconocido como el más grande matemático de la Grecia Antigua. Grandes aportaciones a la geo- 22 Capítulo 2 El mundo de la ingeniería metría, gracias al método exhaustivo para encontrar áreas y volúmenes. Arquímedes también fue un notable ingeniero e inventor, su más grande aportación viene principalmente con el Principio de Arquímedes sobre la flotabilidad, mismo que lo llevó a la invención de un mecanismo para poder elevar agua, conocido como el tornillo de Arquímedes. Este principio es de gran importancia, ya que es necesario para el diseño de barcos, submarinos o cualquier aerostato. Herón de Alejandría (10 d.C.-70 d.C.). Matemático griego, considerado el más grande experimentador de la Antigüedad y el mayor representante científico de la época helenística. Dentro de sus aportaciones, la más importante fue la construcción de un artefacto impulsado por vapor conocido como Eolípila, que es considerado como la primera máquina térmica de la historia, así como el principal antecedente de la máquina de vapor, una de las principales fuentes de poder mecánico en la actualidad. Leonardo da Vinci (1452-1519). De las más grandes mentes creativas del renacimiento italiano, da Vinci fue sumamente influyente como pintor y escultor, pero también fue un inventor e ingeniero muy talentoso. En sus cuadernos se pueden leer temas desde anatomía hasta óptica, geología y f ísica. Su verdadero genio no era ni como artista ni como ingeniero, sino una mezcla de los dos. Si todo su trabajo hubiera sido publicado de una forma más comprensible, seguramente hubiera sido reconocido más como un inventor que como un artista, habiendo “inventado” la bicicleta, el avión, helicóptero y paracaídas cerca de unos 500 años antes de su época. FIGURA 2.1 Estudios sobre el agua de da Vinci en el Códice Atlántico http://www.interactivehank. com/blog/wp-content/ uploads/2011/03/ Leonardo+da+Vinci+ Codex+ Water.jpg 2.1 Ingenieros más notables 23 James Watt (1736-1819). Inventor e ingeniero mecánico escocés; desde su adolescencia supo que quería dedicarse a la fabricación de instrumentos. Trabajó en la Universidad de Glasgow, donde tenían un modelo a escala de la bomba Newcomen, que tenía un pequeño problema: después de cierto número de golpes la máquina se detenía. Tratando de solucionarlo, Watt descubrió que el principal problema radicaba en las grandes cantidades de vapor que utilizaba. Necesitaba una forma de condensar el vapor sin necesidad de enfriar el cilindro. El desarrollo del motor de viga para solucionar esta problemática produjo grandes avances en las máquinas de vapor, así como una de las principales causas de la Revolución Industrial. Nicolaus Otto (1832-1891). Vendedor alemán al que su fascinación por los motores de gas, las máquinas de vapor, así como todos los avances de la época, lo llevaron a dejar su trabajo y convertirse en un ingeniero autodidacta y, junto con Eugene Langen, buscaron mejorar el diseño existente de la máquina de vapor, desarrollado por Étienne Lenoir. El resultado fue un motor atmosférico que consumía menos de la mitad de gas que su predecesor, el cual constituye el primer motor de combustión interna en la historia, que eficientemente quemaba el combustible en una cámara con un pistón. El motor Otto es el que mueve casi todos los vehículos automotores que hoy en día están en circulación. Thomas Edison (1847-1931). El más prolífero inventor estadounidense con 1093 patentes en una amplia gama de campos, como telecomunicaciones, electricidad, grabación de sonido, cinematograf ía, etc. Fue uno de los FIGURA 2.2 Thomas A. Edison y la patente de la lámpara incandescente (foco eléctrico) http://upload.wikimedia.org/wikipedia/commons/9/9d/Thomas_Edison2.jpg http://www.ourdocuments.gov/document_data/document_images/doc_046_big.jpg 24 Capítulo 2 El mundo de la ingeniería primeros inventores en aplicar el concepto de producción en masa y trabajo en equipo a gran escala al proceso de invención, lo que lo acredita como el creador de la primer institución científica de la historia. Las contribuciones de Edison son muchas, pero dentro de las más importantes se puede mencionar el teléfono, la cámara cinematográfica y la bombilla de luz. Nikola Tesla (1856-1943). Ingeniero mecánico, eléctrico e inventor serbio, siempre estuvo fascinado por la electricidad. Mientras trabajaba en Budapest como ingeniero eléctrico se le ocurrió una solución al campo magnético rotatorio, desarrollando así el motor de inducción. Ante la incapacidad de desarrollar y promover su invención en Europa, Tesla aceptó una oferta de trabajo de Thomas Edison en Nueva York, donde estuvo trabajando en mejorar la línea de dinamos, generadores eléctricos de corriente directa de Edison. Fue aquí donde empezó la discusión entre corriente directa y alterna, cortando así la relación entre ambos. Tesla adaptó brillantemente el principio del campo magnético rotatorio para la construcción de motores de inducción con corriente alterna, así como el sistema polifásico para la generación, transmisión, distribución y uso de energía eléctrica, invenciones que actualmente están iluminando a casi todo el mundo. Henry Ford (1863-1947). A diferencia de lo que muchos piensan, Henry Ford, industrialista estadounidense, no inventó ni el automóvil ni la línea FIGURA 2.3 Línea de ensamble en Ford Motor Co. http://16034173.nhd.weebly.com/uploads/1/5/7/7/15774554/136946_orig.jpeg 2.2 Ramas de la ingeniería 25 de ensamble, pero fue el responsable de convertir al automóvil en la innovación que cambió el siglo xx a partir de un invento de utilidad desconocida. Con la creación de la Ford Motor Company, Ford logró adaptar el concepto de línea de ensamble a la producción en serie de automóviles, con costos muy bajos, pasándolo de un lujo a un bien accesible para todos. Henry Ford tomó ideas y tecnologías existentes y las desarrolló para crear una solución al problema de transporte, un perfecto ejemplo de la labor de un ingeniero. Wilbur Wright (1867-1912) y Orville Wright (1871-1948). Encargados de la invención del primer aeroplano funcional de la historia, los hermanos Wright no tenían ningún conocimiento científico, sus conocimientos de mecánica los adquirieron gracias a que reparaban sus propias bicicletas, y después instalaron un taller. Tras leer en las noticias sobre la muerte de un piloto de planeador, los hermanos Wright tomaron un gran interés en volar, lo que los motivó a adentrarse en todo lo relativo a aeronáutica, descubriendo que el problema era que el piloto no tenía control sobre el planeador. Así, con la construcción de su aeroplano lograron el primer vuelo humano controlado, sostenido y equilibrado de toda la historia, logrando la fama mundial. Alan Turing (1912-1954). Matemático inglés y pionero de la informática. Desarrolló el Entscheidungsproblem, que se traduce como problema de decisión y fue un reto en lógica simbólica para encontrar un algoritmo general que decidiera si una fórmula del cálculo de primer orden es un teorema. En 1936, de manera independiente, él y Alonzo Church demostraron que es imposible escribir tal algoritmo. Como consecuencia, es también imposible decidir con un algoritmo si ciertas frases concretas de la aritmética son verdaderas o falsas. Esto es la base de la teoría moderna de la informática y que pone los cimientos de lo que es tanto computación como algoritmo. También fue un factor importante para Inglaterra y los aliados durante la Segunda Guerra Mundial, gracias a la decodificación de los mensajes alemanes. Una vez finalizada la guerra, la mente de Turing se centró en el desarrollo de una máquina que pudiera procesar información lógicamente, llegando a diseñar así la primera computadora digital. 2.2 Ramas de la ingeniería Como vimos, a través del tiempo la ingeniería ha ido evolucionando. Los primeros ingenieros sabían de todo un poco, eran parte científicos, parte inventores, parte técnicos. Sin embargo, poco a poco surgió la necesidad de especialistas en temas específicos. Así, lo que inicialmente comprendía dos ramas en ingeniería: la civil y la militar, pasó a tener más ramas de especialización. Actualmente la ingeniería cuenta con más de 70 especialidades, que van desde lo más específico, como ingeniería acústica, hasta algo más general, como la ingeniería mecánica. Entre ellas encontramos la ingeniería 26 Capítulo 2 El mundo de la ingeniería civil, ingeniería sanitaria, ingeniería ambiental, ingeniería estructural, ingeniería hidráulica, ingeniería de minas, ingeniería del petróleo, ingeniería del transporte, ingeniería eléctrica, ingeniería electrónica, ingeniería en computación, ingeniería de telecomunicaciones, ingeniería en comunicaciones y electrónica, ingeniería cibernética, ingeniería electromecánica o mecánico electricista, ingeniería informática, ingeniería en sistemas de información, ingeniería en telemática, ingeniería mecatrónica, ingeniería de control, ingeniería automática, ingeniería en energía eléctrica y en sistemas electrónicos o eléctrica-electrónica, ingeniería en sistemas computacionales, ingeniería de software, ingeniería en tecnologías de información y comunicaciones, ingeniería en tecnologías computacionales, ingeniería en tecnologías electrónicas, ingeniería en sistemas digitales y robótica, ingeniería biónica, ingeniería química, ingeniería de materiales, ingeniería de alimentos, bioingeniería, ingeniería bioquímica, ingeniería biológica, ingeniería genética, ingeniería biomédica, ingeniería médica, ingeniería agroforestal, ingeniería forestal, ingeniería agrícola, ingeniería en biosistemas, ingeniería agronómica, ingeniería industrial, ingeniería financiera, ingeniería comercial, ingeniería en diseño industrial y desarrollo de producto, ingeniería logística, ingeniería en gestión empresarial, ingeniería administrativa, ingeniería mecánica, ingeniería electromecánica, ingeniería naval, ingeniería aeroespacial, ingeniería automotriz, ingeniería aeronáutica, ingeniería acústica, ingeniería en armamento, ingeniería en maquinarias de asedio, ingeniería en politécnica militar, ingeniería balística. Aquí se presentan algunas de las más importantes. Ingeniería química Una gran rama de la ingeniería, es la ingeniería química, la cual se estableció en el siglo xix, con la proliferación de procesos industriales que comprenden reacciones químicas en metalurgia, alimentos, textiles, entre otras. Para 1880, el uso de químicos en manufacturas creó una nueva industria, cuya función fue la producción en masa de químicos. El diseño y operación de las plantas de esta industria se convirtió en la función de la nueva ingeniería química. Algunos ingenieros químicos trabajan en fábricas, mientras otros lo hacen en laboratorios. Aunque siempre podemos encontrarlos en universidades, empresas consultoras, compañías ingenieriles, despachos jurídicos, oficinas de gobierno y prácticamente en cualquier empresa. El ingeniero químico aplica principios químicos, f ísicos y matemáticos para resolver problemas y proporcionar compuestos de todo tipo, desde productos farmacéuticos hasta combustibles, pasando por productos químicos industriales. Cambios o reacciones químicas pueden ser usados para producir todo tipo de productos útiles. Los ingenieros químicos usan sus conocimientos para descubrir o manufacturar mejores plásticos, combustibles, pinturas, fibras, medicinas, fertilizantes, semiconductores, papel y 2.2 Ramas de la ingeniería 27 FIGURA 2.4 Ingeniero químico http://chemicaleng.njit.edu/images/Dr._Xia-Ping_Dai.jpg muchos otros tipos de químicos por medio de reacciones químicas o purificaciones. Los ingenieros químicos también juegan un papel importante protegiendo el medio ambiente, creando tecnologías más limpias, calculando impactos ambientales y estudiando el impacto de químicos sobre el medio ambiente. Algunas áreas presentes y futuras de la ingeniería química incluyen la industria de semiconductores, la gestión medioambiental, el procesamiento de fuentes de energía modernas y tradicionales, desarrollo de pinturas, prevención de la corrosión y la bioingeniería, entre otras. Ingeniería civil La ingeniería civil es la más antigua de todas las ingenierías. Las personas que ejercen esta profesión pueden tener ciertas funciones como: interventores, constructores y calculistas. Asimismo, existen varias actividades especializadas dentro de esta rama: 1. Construcción: construye (lo que los ingenieros y los arquitectos diseñan), calcula y planea los proyectos completos, haciendo una evaluación de costos, materiales y personal necesario. 2. Infraestructura: diseña estructuras, como carreteras, puentes, túneles, presas, etc.; calcula fuerzas y momentos, decidiendo los materiales necesarios para soportar y resistir lo especificado en el diseño. 28 Capítulo 2 El mundo de la ingeniería 3. Geodesia: haciendo uso de herramientas como la aerofotogrametría y fotografías por satélite, localiza el área para realizar proyectos de ingeniería civil. 4. Geotecnia: analiza los terrenos sobre los cuales se realizarán construcciones, observando el comportamiento de la tierra, rocas y suelo. Suelen ayudar en el diseño de algunas construcciones. 5. Hidráulica: decide la localización de fuentes de agua potable, así como la evaluación de las ya existentes. Diseña sistemas de riego y desarrolla instalaciones fluviales. Ayuda en la construcción de estructuras portuarias y de defensa contra inundaciones. 6. Sanitaria: evalúa la contaminación ambiental, asegurándose que la calidad de agua potable sea la deseada; diseña sistemas de tuberías, alcantarillado, plantas de tratamiento y acueductos. 7. Transporte: diseña sistemas de transporte, como gasoductos y oleoductos, así como ciertas vías de comunicación. El ingeniero civil se responsabiliza de la planificación, diseño y construcción de la infraestructura. Esto incluye las redes de transporte, la gestión del agua, la protección del medio ambiente y el urbanismo. Los resultados más visibles son las grandes estructuras, como autopistas, puentes y presas, entre otras. En estos casos se combinan especialidades tales como la ingeniería de estructuras, la ingeniería geotécnica y la arquitectura. Otro campo de gran importancia es el diseño y operación de plantas para el tratamiento del agua, no sólo domésticas, sino también de desechos industriales. Este campo se ha ampliado en la actualidad a instalaciones de depuración de todo tipo de residuos (ingeniería del medio ambiente). La ingeniería de sistemas de transporte se ocupa de la construcción de autopistas, ferrocarriles y otros sistemas de transporte rápido, la construcción y gestión de puertos, aeropuertos, vías acuáticas, etc. Dentro de la ingeniería de obras civiles se incluye una especialidad dedicada al diseño de sistemas de transporte de agua y a la gestión de recursos hidráulicos. Por último, dentro de la ingeniería civil, aparte de los ingenieros de caminos, canales y puertos, intervienen también los ingenieros civiles mecánicos, sobre todo en los aspectos de construcción industrial y de cálculo de estructuras. Ingeniería eléctrica La ingeniería eléctrica se ocupa de la aplicación de las leyes f ísicas manifestadas en la electricidad, magnetismo y luz para desarrollar productos y servicios que ayuden a la humanidad. El ingeniero eléctrico diseña redes de distribución, circuitos eléctricos, control de procesos y sistemas de tracción, principalmente. Se requiere de la pasión por la f ísica, la electricidad y, por supuesto, las matemáticas. Se puede decir que el término ingeniería eléctrica es muy amplio, incluyendo actividades tales como la generación y transmisión de energía, los motores eléctricos, los sistemas eléctricos para 2.2 Ramas de la ingeniería 29 FIGURA 2.5 Planta eléctrica http://upload.wikimedia.org/wikipedia/commons/e/e0/Power_plant.jpg todo tipo de edificios e instalaciones, etc. Tiene mucha relación con ella la ingeniería electrónica que, aunque por sí misma constituye una especialización distinta, tradicionalmente está ligada a la eléctrica y a las telecomunicaciones en sus campos de potencia y microelectrónica, respectivamente. Dentro de la ingeniería eléctrica aparecen algunas especialidades que hoy en día ya podemos identificar como otras ramas de la ingeniería, como: automatización, computación, comunicaciones, electrónica, instrumentación y potencia. Ingeniería industrial La ingeniería industrial está relacionada con el diseño, instalación y mejoramiento operacional de sistemas, integrados por recursos humanos, materiales, maquinaria y equipos, materia prima y financieros, entre otros. Utiliza los conocimientos de las matemáticas, f ísica, ciencias de la ingeniería y ciencias sociales, aunados a los principios y métodos de análisis y diseño ingenieriles, para especificar, predecir y evaluar los resultados obtenidos de tales sistemas. La ingeniería industrial es una disciplina dedicada al diseño, la innovación, la mejora, la instalación y la administración de sistemas organizados para la producción eficiente y efectiva de bienes y servicios. El ámbito de esta disciplina se ha expandido recientemente gracias a su aplicación en la mejora de la prestación de servicios de alto valor agregado, 30 Capítulo 2 El mundo de la ingeniería como la distribución, transporte y suministro de mercancías (logística), los servicios de comunicación e información y los servicios de seguridad y médicos. Su trabajo verifica y cumple factibilidades políticas, sociales, legales, técnicas, económicas, financieras, ecológicas, ambientales y de seguridad de mano de obra, instalaciones y materiales. Desempeña funciones que, aparentemente, no tienen relación con su habilidad específica, entre otras, el análisis financiero debido a su conocimiento de las técnicas específicas de este campo y a su formación relacionada con la producción y los procesos. La ingeniería industrial es un campo interdisciplinario con aplicaciones industriales, de servicios, comerciales y de gestión. Según el Instituto Americano de Ingeniería de Organización (AIIE), el ingeniero de organización se ocupa “del diseño, mejora e instalación de sistemas integrados de personas, materiales y energía”. Algunos campos de la ingeniería de organización son la planificación y gestión de la producción, la ingeniería y el diseño de plantas industriales, la gestión de la calidad, el establecimiento de objetivos, etc. Es evidente lo cercana que está la ingeniería de la organización a la gestión. Ingeniería mecánica El campo de la ingeniería mecánica se ocupa de los componentes de las maquinarias, las propiedades de las fuerzas, materiales, energía y movimiento, así como de la aplicación de esos elementos para la creación de nuevas máquinas y productos que beneficien a la sociedad y vida de las personas. Los ingenieros mecánicos investigan, desarrollan, diseñan, manufacturan y prueban herramientas, motores, máquinas y otros objetos mecánicos. También investigan y trabajan sobre máquinas productoras de energía, generadores de electricidad, motores, turbinas de gas y vapor, así como en motores para jets y cohetes. A su vez, desarrollan máquinas de uso de energía, como refrigeración y equipo de aire acondicionado, robots usados en la manufactura, máquinas de control numérico, herramientas mecánicas y equipo de producción industrial. El ingeniero mecánico está capacitado para construir, proyectar, diseñar, reparar, mantener y operar distintos tipos de máquinas, instalaciones industriales, procesos automatizados y sistemas de control industrial. La ingeniería mecánica es quizá la más amplia de todas las disciplinas ingenieriles en cuanto a su gama de actividades y funciones. Se ocupa del diseño, fabricación y operación de componentes, aparatos o sistemas, como la tecnología láser, estructuras móviles, motores, materiales y procesos de fabricación, desde componentes microscópicas hasta engranajes gigantes, además de calefacción, acondicionamiento de aire y ventilación (HVAC), aplicaciones biomédicas, industria del automóvil, diseño asistido 2.2 Ramas de la ingeniería 31 FIGURA 2.6 Motor V8 http://www.seriouswheels.com/pics-2006/2006-Chevrolet-Corvette-Z06-LS7-1280x960.jpg por computadora (CAD), automatización, robótica, mantenimiento, fiabilidad y muchos más. Una aplicación de reciente auge son los sistemas mecánicos microelectrónicos (MEMS), por sus usos en prótesis inteligentes y sistemas robóticos. Otras ingenierías Por muchos años las ramas de ingeniería se agruparon en civil, química, eléctrica, mecánica e industrial. La figura 2.6 muestra que alrededor de dos terceras partes del total de ingenieros en el mundo corresponde a alguna de estas cinco ramas. Sin embargo, el paso del tiempo y la necesidad de contar con conocimientos más especializados ha provocado la creación de nuevas ramas de ingeniería, las cuales se suman a disciplinas clásicas en el mundo ingenieril. Entre estas ramas se encuentran: computación, de sistemas, aeroespacial, de alimentos, ambiental, informática, naval, nuclear, metalúrgica, petróleos, genética, telemática, por citar algunas. Una breve descripción de algunas de estas ramas se proporciona a continuación. Ingeniería en computación. Es el diseño, implementación, construcción y mantenimiento de computadoras y equipos controlados por computadoras para el beneficio de la humanidad. Se estudia el diseño de hardware (estructura) digital y sistemas de software (programación). Dentro de esta rama la programación está enfocada en artefactos digitales y su interface con los usuarios y otros artefactos. Una de las áreas más grandes dentro de esta ingeniería actualmente es la de sistemas integrados, categoría donde se encuentran los smartphones, cámaras digitales, etcétera. 32 Capítulo 2 El mundo de la ingeniería Ingeniería de sistemas. Esta especialidad ha nacido porque la mayoría de los sistemas presentan elementos comunes que se pueden estudiar bajo un mismo marco conceptual. De algún modo, se puede esperar que un sistema se comporte de acuerdo con determinados parámetros (por ejemplo, costo, fiabilidad, rapidez, congestión o mantenimiento). El ingeniero de sistemas se encarga de analizar un sistema real y comprobar si se comporta según fue diseñado. Las técnicas usadas habitualmente son la estadística y probabilidad, teoría de control, modelado de sistemas y programación. Ingeniería aeroespacial. Los ingenieros aeroespaciales diseñan, analizan, modelan, simulan y prueban aviones, naves espaciales, satélites, misiles y cohetes. La tecnología aeroespacial ha permitido el desarrollo de otras aplicaciones en objetos que se movilizan dentro de gases y líquidos. Por ejemplo, pelotas de golf, trenes de alta velocidad y automóviles de competencia, entre otras. Generalmente se encuentra a los ingenieros aeroespaciales involucrados en proyectos de aerodinámica, propulsión, navegación y pruebas de vuelo. Ingeniería en alimentos. Consiste en la aplicación de principios ingenieriles al almacenamiento, producción y distribución de alimentos y bio-productos. Para esta ingeniería se requieren conocimientos de química y ciencia de los alimentos. Dentro de las contribuciones de un ingeniero en FIGURA 2.7 Ingeniería aeroespacial http://www.cguru.info/images/aeronautical.jpg 2.2 Ramas de la ingeniería 33 alimentos está principalmente el diseño de sistemas o métodos de empaquetado para facilitar el almacenamiento y transporte de alimentos, así como la regulación y protección de la salud pública por medio del estudio de los componentes de ciertos alimentos. Ingeniería ambiental. Se ocupa del estudio de las formas para proteger el ambiente. Aquí se mezclan los principios de ingeniería con las ciencias del suelo, biología y química. Estudia el efecto de los avances tecnológicos en el ambiente. Cubre áreas como la contaminación del aire y el agua, suministros de agua, manejo de aguas negras, desperdicios peligrosos, tierras, protección de la radiación y salud pública. Bioingeniería o ingeniería biomédica. Aplica procedimientos de diseño y de principios de ingeniería a la biología y medicina, con el propósito de mejorar la calidad y efectividad del cuidado y salud del paciente, como el desarrollo de nuevos y mejores sistemas de terapia o rehabilitación. Dentro de sus especialidades se encuentra la ingeniería bioquímica, biomecánica y bioelectricidad. Un ingeniero biomédico generalmente trabaja en manufactura, hospitales o investigación. Ingeniería genética. Ésta se refiere al conjunto de tecnologías utilizadas para cambiar la estructura genética de las células y poder mover genes a través de especies para producir nuevos organismos. Se les dan nuevas combinaciones genéticas y, por lo tanto, características que dif ícilmente se podrían encontrar en la naturaleza. Las opciones son vastas, dada la gran cantidad de animales y plantas que existen, pero aun así se debe ser cuidadoso con las manipulaciones, ya que los efectos no siempre serán positivos. Ingeniería mecatrónica. Las principales actividades de un ingeniero en mecatrónica son la automatización industrial, la construcción de dispositivos y máquinas inteligentes, así como la innovación en el diseño vanguardista. Todo lo anterior se apoya en la integración de sistemas mecatrónicos, por lo que su estudio abarca materias como diseño de mecanismos robóticos, manufactura integrada por computadora, inteligencia artificial, automatización y control de procesos. Ingeniería de materiales. Aplica las propiedades de la materia dentro de las áreas de ciencia e ingeniería. Específicamente investiga la relación entre la estructura de los materiales a una escala molecular o atómica y sus propiedades macroscópicas. Es indispensable un conocimiento de f ísica aplicada y química. Esta rama de la ingeniería ha adquirido un mayor auge gracias al enfoque que se le ha dado tanto a la nanotecnología como a la nanociencia en los últimos años. FIGURA 2.8 Robot humanoide Ingeniería nuclear. Se ocupa de la ciencia detrás de los procesos http://jasmedia2011.files.wordpress. nucleares y se aplica para el desarrollo de varias tecnologías. Al pensar com/2011/08/humanoide.jpg en energía nuclear la mayoría de las personas piensan en la bomba 34 Capítulo 2 El mundo de la ingeniería atómica, la verdad es que los procesos nucleares son fundamentales dentro de la medicina, tanto para diagnóstico como para el tratamiento de ciertas enfermedades. La mayor aplicación comercial actualmente es el uso de fisión nuclear para la producción de electricidad, que se espera que a largo plazo se vuelva cada vez más importante. Ingeniería petrolera. Se encarga de diseñar y desarrollar los métodos para la extracción de gas y petróleo de los depósitos debajo de la superficie de la tierra. La producción económica y ambientalmente segura de petróleo requiere de la aplicación creativa de muchas habilidades, como matemáticas, f ísica, geología, química, entre otras. Debido a la gran demanda de combustibles fósiles que el mundo genera, esta ingeniería es vital y genera una altísima demanda en el mercado laboral. Ingeniería agrícola. Aquí se aplican la ingeniería y tecnología a la producción y procesamiento agrícola. Se combinan las disciplinas de zoología y botánica, así como las ingenierías mecánica, civil y eléctrica. El ingeniero agrícola es capaz de diseñar la maquinaria, equipo y estructuras utilizadas en la práctica agrícola, la producción y cuidado de animales y sistemas de control ambiental de enfriado o ventilación, entre otras actividades. No hay que olvidar que el campo de acción de la ingeniería es tan vasto y cambiante, que de ninguna forma se restringe a las disciplinas anteriormente presentadas; es más, no nos debería sorprender que en pocos años aparezcan más disciplinas ingenieriles de especialización. 2.3 El estudio y campo laboral de la ingeniería El campo de la ingeniería es muy dinámico debido al gran número de especializaciones o ramas con las que cuenta actualmente. Las opciones de dónde estudiar ingeniería o qué rama de la ingeniería escoger es demasiado amplia. A continuación mostraremos el top 10 de 2013 de universidades donde puede estudiarse algún curso de ingeniería en el mundo, según el indicador de The Times Higher Education: 1. California Institute of Technology (Caltech) — Pasadena, CA. Estados Unidos — Cursos: ingenierías química, ambiental, civil, eléctrica, médica, materiales y mecánica — Tasa de aceptación: 13% 2. Princeton University — Princeton, NJ. Estados Unidos — Cursos: ingenierías civil, ambiental, química, en computación, eléctrica, mecánica, aeroespacial, financiera y de operaciones. — Tasa de aceptación: 8.5% 3. Massachussets Institute of Technology (MIT) — Cambridge, MA. Estados Unidos 2.3 El estudio y campo laboral de la ingeniería 35 FIGURA 2.9 Caltech, MIT, Princeton, U. of California http://www.thesagamotorhotel.com/caltech-logo.png http://cloudtimes.org/wp-content/uploads/2013/03/mit-logo.jpg https://web.math.princeton.edu/~kfelker/images/Princeton-Logo.jpg http://www.geteducated.com/images/articles/uc_color_logo.jpg — Cursos: ingenierías aeronáutica, biológica, química, civil, ambiental, de sistemas, de materiales, mecánica y nuclear. — Tasa de aceptación: 8.9% 4. University of California, Berkeley — Berkeley, CA. Estados Unidos — Cursos: ingenierías química, de materiales, nuclear, biológica, civil, eléctrica, física, estadística, industrial, mecánica y en computación. — Tasa de aceptación: 25.6% 5. University of Cambridge — Cambridge, Reino Unido — Cursos: ingenierías química, en computación, en manufactura y materiales. — Tasa de aceptación: 21.9% 6. Stanford University — Stanford, CA. Estados Unidos — Cursos: ingenierías aeronáutica, biológica, química, civil, ambiental, eléctrica, energética, de materiales, mecánica y de operaciones. — Tasa de aceptación: 6.6% 36 Capítulo 2 El mundo de la ingeniería 7. University of California, Los Ángeles — Los Ángeles, CA. Estados Unidos — Cursos: ingenierías aeroespacial, biológica, química, civil, en computación, eléctrica, de materiales y mecánica. — Tasa de aceptación: 22% 8. Eidgenössische Technische Hochschule Zürich — Zúrich, Suiza — Cursos: ingenierías civil, ambiental, geomática, mecánica, de procesos, nuclear, eléctrica, biomédica, de computación, en materiales, química y en alimentos. — Tasa de aceptación: no es selectiva en sus procesos de admisión, siempre que se cumplan los requisitos establecidos. 9. Georgia Institute of Technology (Georgia Tech) — Atlanta, GA. Estados Unidos — Cursos: ingenierías aeroespacial, biomédica, química, biomolecular, civil, en computación, eléctrica, ambiental, industrial, de materiales, mecánica y nuclear. — Tasa de aceptación: 52% 10. Imperial College London — Londres, Reino Unido — Cursos: ingenierías aeronáutica, biomédica, química, civil, en computación, eléctrica, electrónica, de materiales, mecánica, nuclear y petrolera. — Tasa de aceptación: 15.3% Respecto al campo laboral de la población de ingenieros, no se tienen datos precisos para Latinoamérica, por lo que se presentarán y analizarán los datos de Estados Unidos, donde, a pesar de la gran importancia de la ingeniería, ésta sigue siendo un gran campo a explotar, constituyendo sólo 1.4% del total de la gente empleada en ese país. Si observamos la tabla 2.1, vemos cómo el número total de ingenieros en general se mantiene constante, pero con un ligero aumento en este último año. También es posible observar cómo un poco más de la mitad de los ingenieros se encuentran, ya sea en ingeniería civil, mecánica, industrial o eléctrica, dejando un amplio campo dentro de las otras para su explotación. La participación de cada ingeniería con respecto al total de ingenieros se puede observar mejor en la figura 2.10. 2.4 Asociaciones de ingeniería El mundo de la ingeniería comprende más que sólo las especialidades o ramas y los lugares donde se pueden estudiar. Existe también un sinf ín de asociaciones, institutos o colegios de ingenieros encargados de la difusión, alcance y desarrollo de las diferentes ramas de la ingeniería; estas instituciones van desde lo más general a lo más específico. A continuación se 37 2.4 Asociaciones de ingeniería 25.00% Civil Mecánica 20.00% Industrial Eléctrica Electrónica Computación 15.00% Aeroespacial Ambiental Química Higiene y seguridad 10.00% Materiales Petróleo Nuclear Biomédica 5.00% Marinos Minas y geología 0.00% 2007 2008 2009 2010 2011 2012 FIGURA 2.10 Participación de cada una de las ingenierías en el mercado laboral presentan algunas de las más importantes; se recomienda visitar su sitio web para descubrir un poco más de ellas. • • • • • • • • • • • • • • • • • • • American Academy of Environmental Engineers Asociación Interamericana de Ingeniería Sanitaria y Ambiental American Institute of Aeronautics and Astronautics American Institute of Chemical Engineers Instituto Mexicano de Ingenieros Químicos, A.C. The American Society of Agricultural and Biological Engineers American Society of Civil Engineers American Nuclear Society American Society for Engineering Education American Society of Mechanical Engineers Biomedical Engineering Society Institute of Electrical and Electronics Engineers Institute of Industrial Engineers National Academy of Engineering National Science Foundation National Society of Professional Engineers Society of Automotive Engineers Society of Manufacturing Engineers National Council of Examiners for Engineering 38 Capítulo 2 El mundo de la ingeniería TABLA 2.1 Participación de ingenieros empleados (según ramas) en Estados Unidos: 2007-2012 2007 2008 2009 2010 2011 2012 1949 1967 1891 1816 1572.1 1982 Civil 19.60% 17.59% 17.87% 17.51% 17.71% 18.06% Mecánica 15.19% 16.17% 15.97% 16.13% 15.18% 14.53% Industrial 6.82% 7.52% 8.14% 7.82% 13.66% 9.43% Eléctrica 9.13% 9.20% 8.88% 8.98% 10.04% 8.68% Electrónica 8.67% 8.59% 7.72% 7.93% 9.14% 8.27% Computación 4.05% 3.51% 3.23% 3.85% 4.75% 4.59% Aeroespacial 6.31% 6.96% 7.19% 6.94% 4.55% 6.00% Ambiental 1.85% 1.88% 1.64% 1.93% 3.45% 2.17% Química 3.85% 3.25% 3.44% 3.47% 2.02% 3.58% Higiene y seguridad 1.44% 1.47% 1.69% 0.94% 1.63% 0.50% Materiales 1.95% 2.03% 1.75% 1.98% 1.55% 2.02% Petróleo 1.08% 0.92% 1.37% 1.10% 1.39% 1.92% Nuclear 0.51% 0.46% 0.58% 0.66% 1.07% 0.55% Biomédica 0.62% 0.46% 0.85% 0.94% 1.02% 0.50% Marinos 0.56% 0.86% 0.63% 0.61% 0.54% 0.40% Minas y geología 0.26% 0.51% 0.58% 0.77% 0.45% 0.45% Agrícolas 0.21% 0.15% 0.16% 0.06% 0.17% 0.20% 17.91% 18.45% 18.30% 18.39% 11.65% 18.11% Total (miles) Otras Fuente: US Bureau of Labor Statistics. • • • • Accreditation Board for Engineering and Technology European Federation of National Engineering Associations International Council of Systems Engineering The Royal Academy of Engineering Es importante mencionar que existen además asociaciones nacionales especializadas, en varios países de América Latina son denominadas como colegios; por ejemplo, el Colegio de Ingenieros Mecánicos y Electricistas en México. 2.5 Últimos desarrollos ingenieriles en diferentes sectores El mundo es un entorno en constante cambio y progreso, por ello la innovación juega un papel importante en llevar a cabo este progreso. Ya vimos lo que la ingeniería ha logrado hasta el día de hoy, siendo uno de los princi- 2.5 Últimos desarrollos ingenieriles en diferentes sectores 39 pales motores del desarrollo humano a lo largo de la historia, pero la ingeniería no ha parado de innovar y seguir creando o mejorando nuevas formas o sistemas diseñados para facilitar la vida del ser humano y crear un progreso en la humanidad. A continuación se hablará de las últimas innovaciones dentro de varios campos: Industria farmacéutica La industria farmacéutica se ocupa, principalmente, de la fabricación, preparación y comercialización de productos químicos medicinales para la prevención y tratamiento de enfermedades. Siendo un sector tan vasto, existen muchos ámbitos a los cuales se puede dirigir la innovación; sin embargo, resaltan dos campos que se han vuelto muy populares en los últimos tiempos: la nanotecnología y la biotecnología. La nanotecnología recientemente ha sido utilizada para detectar cáncer en las personas, debido a que los métodos que existen hoy en día resultan ser muy lentos y poco específicos, razón por la cual, cuando un paciente sufre de esta enfermedad no es posible diagnosticarla hasta que el cáncer ha progresado lo suficiente para esparcirse y deteriorar el tejido sano. La propuesta es utilizar nanosensores diseñados con cables de silicón que permitan identificar proteínas en la sangre asociadas con el cáncer, haciendo su implementación relativamente sencilla, para que éstos puedan ser colocados en hospitales o instituciones de salud que posibiliten diagnosticar al paciente en una fase temprana del padecimiento. Dentro del campo de la biotecnología se han creado medicamentos a partir de sistemas vivos o células, que se utilizan para tratamientos altamente específicos, precisos, predecibles e, idealmente, que conlleven me- FIGURA 2.11 http://knovelblogs.com/wp-content/uploads/2012/07/2030-medical-advances-cure.jpg 40 Capítulo 2 El mundo de la ingeniería nos efectos secundarios para las personas. En ellos no participa síntesis química y sus componentes moleculares tienden a ser mayores en tamaño y número, así como también tienen mayor amplitud de actividad y potencia para generar respuestas inmunológicas. En general, los medicamentos biotecnológicos tienen una estructura heterogénea y compleja de caracterizar, y siempre deben contar con estudios clínicos y filtros de control de calidad y seguridad que garanticen su confiabilidad. Industria química La industria química se ocupa de la extracción y procesamiento de las materias primas, tanto naturales como sintéticas, así como de su transformación en otras sustancias con características diferentes de las que tenían originalmente. Su objetivo principal es elaborar un producto de buena calidad con el costo más bajo y tratando de ocasionar el menor daño posible al ambiente. Dos de las innovaciones más importantes de la actualidad son el poliéster termoplástico y el sistema térmico maestro. El poliéster termoplástico Ultradur® fue desarrollado por BASF y es un material basado en polibutileno tereftalato (PBT), resistente a disolventes y que tolera altas temperaturas. Tiene alta resistencia a la rotura, un gran aguante al desgaste químico y es de muy fácil moldeo. Aunque a simple vista esta innovación no es tan relevante, su aplicación en la fabricación de motores y autopartes ha logrado que los autos con los que nos transportamos día a día sean más eficientes en su consumo de gasolina. Gracias a este material se pueden hacer partes que antes se hacían de metal, logrando que los motores sean más livianos y de menor dimensión. El sistema térmico maestro Stucco® fue desarrollado por BASF y es un sistema que permite reducir la temperatura de un edificio hasta en 7°C sin usar aire acondicionado. Está elaborado con base en nanotecnología inteligente que permite disipar el calor. Es decir, está diseñado para controlar la temperatura interior mediante la incorporación de esta nanotecnología que absorbe y libera energía, de acuerdo con las variaciones térmicas de una habitación. Con esta innovación los hogares disminuyen dramáticamente su consumo de energía, tanto en invierno como en verano. De esta manera es posible ahorrar mucho dinero y, al mismo tiempo, cuidar el ambiente. Es considerada una gran innovación dentro de la química, ya que con ella es posible reducir de manera considerable y constante las emisiones de CO2, en especial en los lugares donde más se consume energía, como las playas y los desiertos, sin olvidar los lugares en los cuales el invierno es muy fuerte. Sector salud Dentro de este sector existen dos procesos nuevos en desarrollo que podrían cambiar el mundo de la medicina: la inyección sin agujas y el Sistema Quirúrgico Da Vinci. 2.5 Últimos desarrollos ingenieriles en diferentes sectores 41 El sistema que permite inyectar una gran variedad de fármacos a través de la piel sin necesidad de emplear agujas fue desarrollado por un grupo de investigadores del Massachussets Institute of Technology (MIT). El mecanismo se basa en las fuerzas de Lorentz, que son aquellas que se ejercen por el campo magnético al recibir una partícula cargada o una corriente eléctrica. Consta de un imán muy pequeño y potente rodeado por una bobina de alambre unida al émbolo de una cápsula que contiene los fármacos a inyectar. Cuando se aplica una corriente eléctrica, ésta interacciona con el campo magnético y produce una fuerza tal que empuja el pistón, permitiendo que la cápsula se abra e inyecte su contenido a gran velocidad a través de la piel. El Sistema Quirúrgico Da Vinci es un sistema desarrollado por Intuitive Surgical, que consiste en un robot quirúrgico diseñado para posibilitar cirugías complejas con invasiones mínimas al cuerpo humano, se utiliza especialmente para operaciones de próstata, reparaciones de válvulas cardiacas y procedimientos quirúrgicos ginecológicos. Es una tecnología sanitaria que brinda a los cirujanos una alternativa tanto para la cirugía abierta tradicional como para la laparoscopía convencional, poniendo las manos del cirujano en los controles de una plataforma robótica de última generación; permite a los cirujanos realizar aun las intervenciones más complejas y delicadas mediante incisiones muy pequeñas con una precisión sin precedentes. Industria alimenticia Dentro de la industria alimenticia, por parte de la ingeniería no existen mayores innovaciones, ya que los procesos de empaquetado o conservación de la comida se han mantenido muy similares en los últimos años; aun así, existe una gran innovación dentro del campo científico, que posiblemente revolucione toda la industria y la base de la alimentación de la sociedad: la carne cultivada en un laboratorio. Ésta fue desarrollada por un grupo de científicos en los Países Bajos, que básicamente tomaron las células de una vaca, las cultivaron hasta que se formaran músculos y después los molieron, dando así origen a la primer hamburguesa cultivada, que fue probada en Londres por un grupo de expertos que afirman que el sabor es muy similar al de la carne de res. Con este descubrimiento, si se implementa a gran escala y el costo de producción es reducido, será posible cubrir la demanda de comida mundial sin causar un gran impacto ambiental. Es trabajo del ingeniero, en parte, tratar de implementar esta nueva tecnología para la mejora de la calidad de vida. Innovaciones en transporte El transporte es una de las actividades fundamentales de una sociedad, ya que implica el traslado de un punto a otro de bienes o personas, lo que re- 42 Capítulo 2 El mundo de la ingeniería FIGURA 2.12 Carne de res cultivada http://www.designboom.com/wp-content/uploads/2013/08/cultured-beef-first-lab-grown-burgerdesignboom-01.jpg quiere una innovación constante dentro de este sector. Una de las mayores innovaciones actualmente es con la línea de buques cargueros “Triple-E” del grupo Maersk, que será la más grande del mundo, tanto en tamaño (400 m de largo, 59 m de ancho, 73 m de altura) como en capacidad (18 000 TEU), 16% más de capacidad que el siguiente barco más grande. Pero hacer un barco que sea simplemente más grande que los demás no era el objetivo del grupo Maersk. No sólo diseñaron un barco con mayor capacidad, sino que diseñaron un barco que fuera eficiente en consumo de combustible, ecológico y se beneficiara de las economías de escala, esto es lo que representa el nombre “Triple-E”. De la eficiencia de los motores y el aumento de la capacidad se deriva que el barco sea amigable con el ecosistema, ya que al consumir menos combustible, pero aumentar la carga, el barco reduce 50% la huella de carbono por tonelada transportada. También el bajo consumo de combustible y el aumento en 16% de la capacidad de carga le permitirán al grupo beneficiarse de las economías de escala, debido a que el costo por tonelada transportada se reduce. Telecomunicaciones Las telecomunicaciones hacen referencia a los medios de procesar y transmitir información, se enfocan principalmente en el estudio, así como en la aplicación de técnicas para diseñar sistemas que permiten la comunicación a diferentes distancias, principalmente de larga distancia, mediante la 2.5 Últimos desarrollos ingenieriles en diferentes sectores 43 transmisión y recepción de señales, las cuales se envían mediante ondas electromagnéticas; también puede ser por cualquier medio que permita la comunicación entre el origen y el destino. Dada la importancia que ha tenido este sector en la vida cotidiana del hombre, se mencionarán a continuación las dos innovaciones más importantes (4G y Skype) que han revolucionado al mundo, al permitir que la comunicación sea de forma más sencilla y eficiente. La red 4G, como su nombre lo indica, es la cuarta generación de tecnología para la comunicación móvil. Ésta provee un Internet de banda ancha móvil, voz IP, servicio de juegos, video y televisión en HD, así como servicios de nube (un gran número de computadoras conectadas y sincronizadas todas a una red en tiempo real), entre otras aplicaciones. Esta última generación fue desarrollada e implementada en el año 2010; en general, todos estos desarrollos de redes de comunicación, junto con el smartphone, hacen de la comunicación algo cada vez más sencillo y práctico, donde básicamente puede conectarse con todo el mundo. Skype, diseñado en 2003, es un software que permite la comunicación entre los usuarios del mismo por medio de texto, voz y/o video de manera gratuita o con forma de prepago, gracias a su característica YY SkypeOut, para realizar llamadas a teléfonos convencionales o móviles, cobrando diferentes tarifas según sea el país de destino, a un costo muy bajo, de tal forma que este software no limita la comunicación solamente entre usuarios, sino permite la comunicación a diferentes partes del mundo con tan sólo realizar una llamada. Otra característica que proporciona el software es el SkypeIn, la cual consiste en proporcionar un número de teléfono al usuario con el fin de que a través de cualquier teléfono pueda conectarse a la computadora, permitiendo tener un servicio de voz disponible para cuando no se encuentre al usuario que se desea contactar. FIGURA 2.13 Smartphones http://www.phonegain.com/wp-content/uploads/2013/02/Smartphones.jpg 44 Capítulo 2 El mundo de la ingeniería 2.6 Retos y nuevas fronteras Una vez visto todo lo que la ingeniería es y ha logrado hasta ahora, es momento de mirar hacia el horizonte y hacia las nuevas fronteras de la ingeniería, así como los retos con los que se encontrará en un futuro no muy lejano. Retos • • • • • • • • • • • • • Hacer que la energía solar sea más económica. Proveer energía eléctrica a partir de la fusión. Desarrollar métodos de secuenciación de carbono. Controlar el ciclo de nitrógeno. Proveer acceso mundial al agua potable. Restaurar y mejorar la infraestructura urbana. Hacer avances en la computación para la salud. Desarrollar mejores medicinas. Ingeniería inversa del cerebro. Prever el terror nuclear. Un ciberespacio más seguro. Mejorar la realidad virtual. Desarrollar nuevas herramientas para el descubrimiento científico. Nuevas fronteras Ingeniería climática. El balance de nuestro planeta es muy sensible a las acciones del ser humano y recientemente ha llegado a niveles sin precedente en la historia de la humanidad. Uno de los más claros indicadores de esto se puede observar en el aumento de las concentraciones de dióxido de carbono (CO2) en la atmósfera, de 280 partes por millón (ppm) antes de la Revolución Industrial, a unas 385 ppm actualmente. La ingeniería climática es el concepto de modificar proactiva y artificialmente el sistema de la Tierra, de tal forma que pueda combatir los cambios producidos por el ser humano en el balance radiactivo del planeta. Dentro de las modificaciones que se han considerado está la reflectividad de la atmósfera: a través de la creación de aerosoles, hacer las nubes más brillantes y el retiro a gran escala de carbón por medio de la inducción de cambios en la química y biología de los océanos. Electrificación del vehículo. La industria automotriz está en una de sus etapas más rápidas y dinámicas de la historia: la electrificación del vehículo, motivada por la problemática, cada vez mayor, del calentamiento global, la sustentabilidad y la seguridad nacional. La respuesta general a estas situaciones, dado el gran número de automóviles en el mercado, es implementar regulaciones demandando una mejor eficiencia en el consumo de combustible de los vehículos; como respuesta, la industria automotriz está 2.6 Retos y nuevas fronteras 45 FIGURA 2.14 Tesla Roadster http://upload.wikimedia.org/wikipedia/commons/2/22/Tesla_Roadster_Japanese_display.jpg desarrollando nuevas tecnologías en cuanto al sistema de propulsión del vehículo. Los sistemas híbrido eléctrico, eléctrico enchufable y eléctrico de batería son de los más avanzados y prometedores. El concepto de un vehículo eléctrico no es algo nuevo, pero los últimos avances en los sistemas de almacenamiento de energía, las máquinas eléctricas, así como los sistemas eléctricos de integración y control, hacen de un vehículo eléctrico un serio competidor del motor de combustión interna, donde los esfuerzos de la ingeniería deben enfocarse en dos cosas: la reducción de los costos, tamaño y peso de las baterías o sistemas de almacenamiento de energía, que facilitaría la adopción y expansión de este tipo de vehículo, y el desarrollo de mejores materiales magnéticos, que son utilizados en todo tipo de máquina eléctrica, siendo críticos para poder diseñar vehículos eléctricos de alto rendimiento. Juegos serios. Los “juegos serios” (del inglés serious game), también llamados “juegos formativos”, es el término usado para describir la creciente aplicación de la tecnología de los videojuegos dentro de campos no relacionados con el entretenimiento. Actualmente los videojuegos son una industria gigante que está a la vanguardia en gráficos de computadora, interfaz de usuario, así como software y hardware computacionales. Todo esto ha hecho que otros sectores, como el de la salud o el naval, se enfoquen en 46 Capítulo 2 El mundo de la ingeniería FIGURA 2.15 Prototipo del Hyperloop de Elon Musk http://cdn2.sbnation.com/entry_photo_images/8594333/et3mockup2_large_verge_medium_ landscape.jpg estas tecnologías desarrolladas para los videojuegos e intenten usarlas para la educación, simulación y entrenamiento, la ciencia, fines organizacionales e incluso sociales, entre un gran número de otras aplicaciones. El sector donde se da el mayor crecimiento actualmente es el sector de la salud, que tiene abundantes retos. Desarrollar materiales para la interface biológica. La habilidad de diseñar materiales útiles para la interface biológica, para obtener la respuesta celular deseada, podría ser uno de los mayores avances médicos de la historia, ya que con éstos sería posible la regeneración de músculos, cartílagos o tendones, y facilitarían considerablemente los procesos de rehabilitación, incluso podrían llevar a la generación de órganos completos dentro del ser humano. Para esto, ingenieros e investigadores deben enfocarse en el diseño de los materiales a utilizar, así como en el diseño de los biorreactores donde enfocar su uso. Todo este campo aún se encuentra en etapa de desarrollo y es trabajo de un gran grupo de personas hacer de esto una realidad, entre ellas ingenieros. 2.7 Conclusiones En este capítulo pudimos entender la importancia de la ingeniería como uno de los principales motores de cambio en la humanidad. Hablamos de los grandes avances que se han dado a lo largo de la historia, observando los logros de personas como Leonardo da Vinci, James Watt y Alan Turing, cuando la ingeniería era considerada más como una sola disciplina que 47 2.7 Conclusiones TABLA 2.2 Perspectivas tecnológicas para las próximas décadas Presente 2015 Energía Las celdas de combustible son utilizadas comúnmente. Se amplía el uso de fuentes de energía alternativa. La energía solar se hace más económica. Los dispositivos eléctricos son mejorados por superconductores. 2025 El poder de la fusión nuclear es usado comercialmente para la producción de electricidad. 2030 en adelante Ambiente Cada vez un mayor número de productos es manufacturado con materiales reciclados. Aumento de empresas socialmente responsables. Reducción de los gases invernadero. Mayor número de normas gubernamentales ambientales para las empresas. El agua marina desalinizada es económicamente viable. Posibilidad de reciclar contaminantes. Desarrollo de la ingeniería climática: posibilidad de modificar el sistema de la Tierra para combatir los cambios en el balance del planeta. Campo/alimentación Se cultiva la primera carne de res en un laboratorio. El cultivo de precisión es cada vez más común. El cultivo orgánico es incorporado al cultivo tradicional por casi todos los países. La cultura acuática provee la mayor parte del consumo de mariscos. Gracias a la ingeniería genética el consumo de carne se reduce al desarrollo de carne cultivada. Tecnologías de información en hardware Artefactos como las tablets, smartphones o los google glasses son ejemplos de interfaces hombrecomputadora cada vez más amigables. La sociedad es cada vez más paperless. Se desarrollan computadoras ópticas. Los procesos paralelos en computadoras son más comunes. Biochips que almacenan datos en lazos moleculares están disponibles comercialmente. Tecnología de información en software Las redes nucleares aumen- El ciberespacio es más tan en uso. seguro. La realidad virtual es un hecho. Mayor uso de la computación en servicios. Inteligencia artificial y robots humanoides son comunes en la sociedad. Telecomunicaciones Casi 30% de la población mundial está conectado por Internet y redes sociales. Los costos de comunicaciones e Internet se reducen considerablemente. Prácticamente toda la población está conectada y tiene acceso a Internet. Avances en telepresencia gracias al gran desarrollo de la holografía. Manufactura La manufactura en masa de productos personalizados es posible. Se desarrollan nuevas y Se amplía el uso de matemejores aleaciones de riales inteligentes. metal. Las fábricas son cada vez más automatizadas con robots inteligentes. La nanotecnología es desarrollada en aplicaciones comerciales. Medicina/ salud La ingeniería genética hace posible la manipulación y el “diseño” de bebés. Se provee acceso universal al agua potable. La genética ayuda al desarrollo de mejores medicinas y tratamiento de enfermedades. Desarrollo de materiales para la interface biológica. Espacio Vehículos espaciales como el “Curiosity” son enviados al espacio con mayor frecuencia. Bases lunares son establecidas permanentemente. Se logra una misión exitosa a Marte, el hombre camina por primera vez en su superficie. Viajar por las estrellas se hace factible. Se hace contacto con otras formas de inteligencia. Transporte Los automóviles híbridos que combinan motores eléctricos y de combustión son más comunes. Se amplía el uso de trenes “Maglev”. Los viajes en avión son algo cotidiano. Se desarrollan autopistas inteligentes, se aumentan las dimensiones del transporte comercial. Los transportes automatizados, que no necesitan de un conductor, son posibles reduciendo el número de accidentes y haciendo un transporte más eficaz. 48 Capítulo 2 El mundo de la ingeniería los hacía en parte inventores, técnicos y científicos. La ingeniería ha evolucionado hasta ser algo multidisciplinario y más específico, con campos que van desde lo general, como la ingeniería mecánica, hasta lo más específico, como la ingeniería en alimentos. Con un gran número de universidades ofreciendo amplia variedad de programas, con un campo laboral que aún tiene mucho por explotar y con un sin fin de asociaciones alrededor del mundo, la ingeniería ha desarrollado gran parte de los últimos avances de la humanidad en campos como la alimentación y las telecomunicaciones, y su naturaleza es seguir creando e innovando con varios retos visibles en el horizonte. EJERCICIOS PROPUESTOS 1. Investigue los inventos más notables de Thomas Edison desde su punto de vista y discuta cómo es que éstos revolucionaron o siguen revolucionando al mundo. 2. ¿Cuál es la importancia de Henry Ford dentro de la ingeniería industrial? 3. ¿Cuál es el principal campo laboral de un ingeniero civil? 4. ¿De qué forma considera que se podría relacionar la ingeniería química con la ingeniería mecánica? 5. ¿Qué es un ingeniero eléctrico y en qué se diferencia de un ingeniero electrónico? 6. Investigue sobre al menos tres ingenierías que no hayan sido mencionadas en este capítulo. 7. Investigue cuáles son las mejores instituciones para el estudio de ingeniería en su país. 8. Investigue sobre las distintas asociaciones de ingenieros existentes en su país o región. 9. ¿Cuál de los últimos desarrollos ingenieriles aquí mencionados considera que es el de mayor trascendencia? ¿Por qué? 10. ¿Cuál cree usted que podría ser otro reto o frontera de la ingeniería? Referencias Adam, E. E. y Ebert, R. J. (1991). Administración de la producción y las operaciones, 4a. Ed. Prentice Hall, México. Amsden, A. H. (1989). Asia’s Next Giant: South Korea and Late Industrialization. Oxford University Press, Nueva York. Andrews, D. Presidente Federal. Instituto de Ingenieros Industriales de Australia. Comunicación personal. Noviembre, 2004. Bureau of Labor Statisitics (2012). Household data annual averages. United States Department of Labor. http://www.bls.gov/ Brandenburger, A. M. y Nalebuff, B. J. (1996). Co-Opetition. Doubleday, Nueva York. Byrne, D. M. y Taguchi, S. (1987). The Taguchi approach to parameter design. Quality Progress, Dic. 19-26. Carvallo, E. Profesor. Sección Ingeniería Industrial. UPC. Comunicación personal. Noviembre, 2004. Case, K. et al. (1993). Introduction to Industrial and Systems Engineering, 3a. Ed. Prentice Hall. Castro, A. Director. Escuela de Ingeniería. UP. Comunicación personal. Noviembre, 2004. Chandler, A. D. Jr. (1977). The Visible Hand: The Managerial Revolution in American Business. Harvard University Press, Cambridge. Referencias Chandler, A. D. Jr. (1984). “The emergence of managerial capitalism”. Business History Review, 58, 473-503. Harvard Business School Press, Boston. Chandler, A. D. Jr. (1986). “The evolution of the modern global corporation”. En Competition in Global Industries, Porter, M. E. (Ed.). Harvard Business School Press, Boston. Chung, K. L. (1974). A Course in Probability Theory, 2a. Ed. Academic Press, San Diego. Crosby, P. B. (1979). Quality is Free. McGraw-Hill, Nueva York. Damelio, R. (1977). Los fundamentos del benchmarking. Panorama Editorial, México. Dixit, A. (1980). “The role of investment in entry deterrence”. Economic Journal, 90, 95-106. Dodge, H. F. y Romig, H. G. (1959). Sampling Inspection Tables-Single and Double Sampling. (2a. Ed.). John Wiley, Nueva York. Dunning, J. H. (1993). Multinational Enterprises and the Global Economy. Addison Wesley, Reading. Espasadin, J. Profesor y Director. Sección Ingeniería Industrial. UDELAR. Comunicación personal. Noviembre, 2004. Evans, J. R. (1993). Applied Production and Operations Management, 4a. Ed. West Publishing Co., Minneapolis. Feigenbaum, A. V. (1983). Total Quality Control. McGraw-Hill, Nueva York. Filippova, A. A. (1962). “Mises’ theorem on the asymptotic behavior of functionals of empirical distribution functions and its statistical applications”. Theory of Probability and its Applications, 7, 24-57. Flaherty, M. T. (1996). Global Operations Management. McGraw-Hill. Nueva York. Garvin, D. A. (1984). “What does ‘product quality’ really mean?”, Sloan Management Review, Otoño. 25-43. Ghemawat, P. (1991). Commitment: The Dynamics of Strategy. Free Press, Nueva York. Gilbert, R. J. y Newberry, D. M. G. (1982). “Preemptive patenting and the persistence of monopoly”. American Economic Review, 72, 514-526. Gill, P. E., Murray, W. y Wright, M. H. (1981). Practical Optimization, 4a. Ed. Academic Press, Nueva York. Goetsch, D. L. (1991). Modern Manufacturing Processes. Delmar Publishers Inc. Nueva York. González, D. Coordinador de Especialidad. Ingeniería Industrial. Comunicación personal. Noviembre, 2004. 49 Hayes, R. H. y Pisano, G. (1994). “Beyond wold class: the new manufacturing strategy”. Harvard Business Review, 1, 77-86. Hayes, R. H. (2002). “Challenges Posed to Operations Management by the ´New Economy´”. Production and Operations Management, 11, 21-32. Hill, T. (1993). Manufacturing Strategy Text and Cases. Irwin, Boston. Hogg, R. V. y Craig, A. T. (1987). Introduction to Mathematical Statistics, 4a. Ed. Macmillan Publishing Co., Nueva York. Hopp, W. J. y Spearman, M. L. (1996). Factory Physics. Irwin, Boston. Iglehart, D. L. (1978). “The regenerative method for simulation analysis”. En Current Trends in Programming Methodology, vol. III. Software Engineering, 52-71, Chandy, K. M. y Yeh, R. T. (Eds.). Prentice Hall, Nueva York. IIE Council, (2002). “The Future of Industrial Enginnering Research”. IIE. www.iienet.org IIE Web staff, (2004). “Engineering education must grow and adapt”. www.iienet.org Ishikawa, K. (1972). Guide to Quality Control. Asian Productivity Organization, Tokio. Juran, J. M. y Gryna, F. M. (1970). Quality Planning and Analysis. McGraw-Hill, Nueva York. Juran, J. M. (Ed.) (1974). Quality Control Handbook, 3a. Ed. McGraw-Hill, Nueva York. Kackar, R. N. (1989). “Taguchi’s quality philosophy: analysis and commentary”. En Quality Control, Robust Design and the Taguchi Method. Dehnad K. y AT&T Bell Laboratories (Eds.). Wadsworth & Brooks/Cole Advanced Books & Software, Calfornia. Krajewski, L. J. y Pritzman, L. (1993). Operations Management: Strategy and Analysis. Addison Wesley, Nueva York. Kreps, D. M. y Wilson, M. (1982). “Reputation and imperfect information”. Journal of Economic Theory, 27, 253-279. Lacayo, O. Director. Departamento de Ingeniería Industrial y de Sistemas. ITESM. Comunicación personal. Noviembre, 2004. Machuca, J. (1995). Dirección de operaciones: aspectos tácticos y operativos. McGraw-Hill, México. Massaki, I. (1986). Kaizen - The Key to Japan’s Competitive Success. McGraw-Hill, Nueva York. McMillan, J. (1990). “Managing suppliers: incentive systems in japanese and U.S. industry”. California Management Review, Verano. 38-55. Mejía, M. Director División Académica de Ingenierías. Instituto Tecnológico Autónomo de 50 Capítulo 2 El mundo de la ingeniería México. Comunicación personal. Noviembre, 2004. Milgrom, P. y Roberts, J. (1982). “Limit pricing and entry under incomplete information: an equilibrium analysis”. Econometrica, 50, 443-459. Mitra, A. (1998). Fundamentals of Quality Control and Improvement, 2a. Ed. Prentice Hall, New Jersey. Montgomery, D. C. (1991). Diseño y análisis de experimentos. Grupo Editorial Iberoamérica, México. Muñoz, D. F. (1992). “Tendencias actuales en los sistemas de producción”. En Programa de Desarrollo Empresarial, Fascículo 2 del Módulo V, M. E. Casar (Ed.). Nacional Financiera. México. Muñoz, D. F. y Glynn, P. W. (1997). “A batch means methodology for estimation of a nonlinear function of a steady-state mean”. Management Science, 43:8, 1121-1135. Niebel, B. W. (1987). “Design-to-manufacture”. En Production Handbook, 4a. ed., White, J. A. (ed.). John Wiley, Nueva York. National Academy of Engineering (2012). Frontiers of Engineering: Reports on Leading-Edge Engineering from the 2012 Symposium. The National Academy Press, Washington, DC. National Academy of Engineering (2012). Grand Challenges. http://www.engineeringchallenges. org/ Ohmae, K. (1985). Triad Power. The Free Press, Nueva York. Porter, M. E. (1985). Competitive Advantage. The Free Press, Nueva York. Quintanilla, F. Vicepresidente. Instituto de Ingenieros Industriales México. Comunicación personal. Noviembre, 2004. Resnick, M. Representante. Instituto de Ingenieros Industriales. Comunicación personal. Noviembre, 2004. Rocca, E. Profesor y Coordinador. Sección Ingeniería Industrial. PUCP. Comunicación personal. Noviembre, 2004. Russell, R. y Taylor III, B. W. (1995). Production and Operations Management Focusing on Quality and Competitiveness. Prentice Hall, New Jersey. Sack, R. Director. Sección Ingeniería Industrial. UTN. Comunicación personal. Noviembre, 2004. Santandreu, M. J. (1991). Gestión de la calidad. ESADE Press, Barcelona, España. Schmalensee, R. (1983). “Advertising and entry deterrence: an exploratory model”. Journal of Political Economy. 91:4, 636-653. Searle, S. R. (1971). Linear Models. John Wiley, Nueva York. Shapiro, C. (1989). “The theory of business strategy”. RAND Journal of Economics, 20:1, 125-137. Shewhart, W. A. (1931). Economic Control of Quality of Manufactured Product. D. Van Nostrand, Nueva York. Shingo, S. (1989). A Study of the Toyota Production System from an Industrial Engineering Viewpoint. Productivity Press, Cambridge. Skinner, W. (1974). “The focused factory”. Harvard Business Review, 3, 113-121. Spendolini, M. J. (1992). The Benchmarking Book. American Management Association, Nueva York. Taguchi, G. y Clausing, D. (1990). “Robust quality”. Harvard Business Review, 1, 65-75. Taylor, F. W. (1911). The Principles of Scientific Management. Harper & Row, Nueva York. Teece, D. J., Pisano, G. y Shuen, A. (1997). “Dynamic capabilities and strategic management”. Strategic Management Journal, 18:7, 509-533. The George Washington University (2000). The GW Forecast. GWForecast.gwu.edu Times Higher Education (2013). World University Rankings 2013-2014. TSL Education Ltd. http://www.timeshighereducation.co.uk/ UNCTAD (1993). The World Investment Report 1993: Transnational Corporations and Integrated International Production. Publicación de la Organización de las Naciones Unidas, Programa de la UNCTAD sobre Corporaciones Trasnacionales. Verter, D. y Dincer, M. C. (1992). “An integrated evaluation of facility location, capacity expansion and technology selection for designing global manufacturing strategies”. European Journal of Operational Research, 60, 1-18. Weiss, R. (2000). “The Future of Production Incentives”. Pennsylvania. Estados Unidos. Wheelwright S. C. y Hayes, R. H. (1985). “Competing through manufacturing”. Harvard Business Review, 1, 99-109. World Bank (1995). World Tables. The John Hopkins University Press, Baltimore. CAPÍTULO 3 Estrategia, innovación y competitividad AUTOR: Dr. Carlos Zozaya Gorostiza 3.1 3.2 3.3 3.4 3.5 3.6 Nuevo entorno competitivo Estrategia Estrategia versus efectividad operativa Posiciones de ventaja competitiva Fuentes de ventaja competitiva Cadena de valor 3.7 Innovación de procesos 3.8 Premio de la innovación 3.9 Disciplina de la innovación 3.10 Oportunidades y fuentes de la innovación 3.11 Metodología de innovación 3.12 Mapa de la estrategia 3.13 Comentarios finales 3.1 Nuevo entorno competitivo Durante las últimas décadas los desarrollos tecnológicos, el establecimiento de acuerdos comerciales de libre comercio y los cambios demográficos, entre otros factores, han modificado de manera sustancial el entorno en el cual compiten las organizaciones. Entender las características de este nuevo entorno, así como los retos que él mismo impone a cualquier organización proveedora de productos y servicios, son dos elementos fundamentales para un profesional que, como el ingeniero industrial, desea contribuir a la creación de valor en una empresa u organización privada o pública. Anteriormente las organizaciones competían con otras empresas de la misma región o giro. Actualmente, tecnologías como el Internet han globalizado la competencia y disminuido las barreras geográficas que antes limitaban el número de competidores que participaba en una determinada industria. Hoy ya no estamos limitados a comprar en las librerías de nuestra ciudad, sino que tenemos la posibilidad de adquirir libros de alguno de los múltiples sitios de Internet, los cuales en muchos casos tienen un mayor surtido y un menor precio que el que nos ofrecen los proveedores locales. De igual forma, hoy tenemos la posibilidad de comprar un boleto de avión o de hacer una reservación de hotel usando Internet sin necesidad de pagar a los agentes de viajes locales una comisión por este tipo de servicio. Estos ejemplos ilustran que existe una mayor amenaza de nuevos competidores y 52 Capítulo 3 Estrategia, innovación y competitividad que las organizaciones tienen cada vez más la necesidad de brindar un mayor valor por sus productos y servicios que los que brindan los demás competidores. Por otra parte, las fronteras entre las distintas industrias son cada vez más difusas, ya que nuevos productos o servicios de una determinada industria pueden volverse sustitutos en otra. Considérese, por ejemplo, lo que le ocurrió a la Encyclopedia Britannica hace algunos años. En aquel entonces, Microsoft, el fabricante del sistema operativo Windows y de herramientas para el procesamiento de textos, desarrollo de hojas de cálculo y elaboración de presentaciones gráficas, entre otros productos, se acercó a los dueños de la Enciclopedia Británica para explorar la posibilidad de ofrecer este producto junto con el sistema operativo Windows en las computadoras personales. Este ofrecimiento fue rechazado categóricamente por los dueños de la Enciclopedia, que consideraron que su producto perdería el prestigio ganado a lo largo de muchos años. Microsoft optó entonces por comprar otra enciclopedia que, a pesar de tener un contenido sustancialmente inferior al de la Enciclopedia Británica, podía ejecutarse en una computadora, y fue rápidamente adoptada por los usuarios de estos equipos. Años más tarde, esta enciclopedia, que dio lugar al producto Encarta de Microsoft, fue desplazando a la Enciclopedia Británica del mercado, provocando eventualmente su adquisición por otra empresa. Lo que los dueños de la Enciclopedia Británica no alcanzaron a visualizar es que productos aparentemente distintos, como una computadora y una enciclopedia, en realidad competían por captar recursos de los padres de familia que buscaban hacer una inversión para el beneficio de sus hijos. Así, entre comprar una computadora que a los niños les parecía más útil y divertida, a pesar de traer consigo una enciclopedia con un contenido hasta cierto punto limitado, o comprar una enciclopedia con un contenido estupendo pero pocas veces consultada por los mismos niños, los padres de familia optaban por comprar la computadora. Los ejemplos anteriores ilustran la necesidad que tienen las organizaciones de ser ágiles, flexibles y orientadas al cliente. El entorno actual es muy distinto a aquel en el que competía Henry Ford, y que quedaba reflejado en su famosa frase de que su empresa podía proveer automóviles de cualquier tipo y color siempre y cuando fueran del Modelo T y negros. Hoy los clientes demandan productos a la medida de sus necesidades y estilos de vida. Por ello, las organizaciones están obligadas a entender mejor qué es lo que quiere cada uno de sus clientes y a responder ágilmente a sus demandas. Si no lo hacen, los consumidores optarán por otro proveedor que sí sea capaz de brindarles lo que solicitan a un precio adecuado. En consecuencia, el reto para cualquier proveedor es ser capaz de proporcionar esta variedad de productos o servicios con la misma efectividad y eficiencia que anteriormente sólo era aplicable a la producción en masa, donde las economías de escala brindaban una ventaja para amortizar las inversiones en capital. 53 3.2 Estrategia 3.2 Estrategia ¿Cómo puede una organización competir exitosamente en un entorno como el descrito en la sección anterior?, o dicho de otra manera: ¿cómo puede una organización ofrecer un valor distintivo en sus productos o servicios que no ofrecen sus competidores? La respuesta a estas preguntas implica entender los conceptos de estrategia y de posición de ventaja. En términos generales, una estrategia puede concebirse como un conjunto de decisiones que una organización o individuo toma para poder alcanzar ciertos objetivos particulares (Day y Reibstein, 1997; Porter, 1996). Este conjunto de objetivos constituye la visión que se espera lograr en un futuro, y así la estrategia puede interpretarse como el medio para lograr estos fines. Dado que no todos los caminos tienen la misma factibilidad de llevarnos hacia nuestro destino, y que cada camino puede implicar distintas habilidades para transitar por él, cada organización debe elegir una ruta particular que maximice sus posibilidades de lograr su visión. Por ejemplo, una empresa que cuenta con una amplia fuerza de ventas puede optar por competir diseñando una estrategia que aproveche este recurso, que otros de sus competidores no tienen. Ahora bien, ¿cuáles son las decisiones más importantes que constituyen una estrategia? Estas decisiones pueden agruparse en las cuatro categorías mostradas en la figura 3.1: • Arena: una empresa debe elegir en qué “arena” va a competir. Ello implica definir su negocio, seleccionar los mercados objetivo y escoger los segmentos a atender en cada uno de dichos mercados. Definición del negocio Mercados a servir Énfasis Arena Ventaja Segmentos objetivo Diferenciación Propiedad de canales Variedad de canales Posicionamiento Diferenciación Acceso Actividades Diferenciación Alianzas Comunicación FIGURA 3.1 54 Capítulo 3 • • • Estrategia, innovación y competitividad Ventaja: de igual forma, una organización debe identificar cuál va a ser la propuesta de valor que va a brindar a cada segmento de clientes, que haga que los consumidores opten por sus productos/ servicios y no por los de sus competidores. Actividades: el tercer tipo de decisiones que debe tomar una empresa se refiere a la selección de actividades que formarán la base de la propuesta de valor de la empresa y a la opción de hacerlas con recursos propios o con apoyo de terceros. Acceso: finalmente, otro conjunto de decisiones estratégicas se refiere a los canales por los cuales una empresa hace llegar sus productos y servicios a sus clientes y/o intermediarios. Considérese, por ejemplo, las diferentes estrategias que seguiría una compañía que se define como una tienda departamental, orientada al segmento superior de la pirámide económica en las principales ciudades del país (i.e., arena) con la propuesta de valor de brindar siempre “lo último y lo diferente” a su clientela, y una empresa que, como Walmart, decide distinguirse de sus competidores por brindar “precios bajos siempre”. En el primer caso, la compañía requiere apoyar su propuesta de valor en actividades de compra sustentadas en un buen análisis de las tendencias de la moda, en el establecimiento de alianzas con marcas exclusivas que no tengan sus competidores, y en la realización de eventos (por ejemplo, desfiles de moda) que refuercen la imagen de exclusividad y buen gusto ante sus clientes. Asimismo, esta compañía puede adaptar sus almacenes con miras a hacer que en ellos sea más agradable la experiencia de comprar, y promover un trato más personalizado de sus vendedores hacia los consumidores potenciales en sus tiendas. En el caso de Walmart, la empresa requiere, por ejemplo, de acuerdos comerciales agresivos con sus proveedores, así como de un sistema de abastecimiento robusto, eficiente y ágil que reduzca los costos unitarios de los productos que ofrece a sus clientes. Nótese que en el ejemplo anterior ambas empresas pueden coexistir porque atienden segmentos de mercado diferentes y ofrecen propuestas de valor distintas. 3.3 Estrategia versus efectividad operativa Michael Porter (1996; 2001) distingue entre estrategia y efectividad operativa. Una empresa opera de manera efectiva si se encuentra cerca de la “frontera de productividad”, la cual representa el máximo valor que una organización puede otorgarle a sus clientes en un producto o servicio a un precio dado. Cuando un competidor está más cerca de la frontera que otro, implica que puede brindar un valor equivalente a sus competidores a un precio menor, o bien que a un mismo precio brinda un mayor valor en sus productos o servicios que el de sus competidores. 55 3.4 Posiciones de ventaja competitiva Valor para el comprador independientemente del precio Alto Frontera de la productividad C A B Bajo FIGURA 3.2 La frontera de la productividad Alto Posición relativa del costo Bajo La figura 3.2 muestra la posición relativa de tres empresas con respecto a esta frontera. Un consumidor interesado en el precio preferirá comprar a la empresa B que a la empresa A, porque ambas empresas ofrecen productos/servicios de un “valor” similar, pero la empresa B los vende más baratos. De igual forma, los consumidores dispuestos a pagar un precio similar al del producto/servicio ofrecido por la empresa A preferirán adquirir el producto/servicio ofrecido por la empresa C, ya que al mismo precio ofrece un mayor valor. Nótese que entre las empresas B y C no hay un claro ganador. Algunos consumidores preferirán productos de menor valor, pero también de menor precio, como los que ofrece la empresa B, y otros optarán por productos más caros pero de valor superior, como los que ofrece la empresa C. 3.4 Posiciones de ventaja competitiva El ejemplo anterior ilustra la importancia de hacer más eficientes y efectivos los procesos de una organización. Sin embargo, el acercarse a la frontera es necesario, más no suficiente, para que una estrategia sea exitosa a largo plazo. En otras palabras, hacer lo mismo que los competidores, pero de mejor manera, no da una ventaja competitiva sostenible, porque eventualmente ellos pueden alcanzarnos al volverse más eficientes. Por ello, una estrategia sostenible implica hacer algo diferente ante los ojos de nuestros clientes. En este sentido, hacer algo distinto debe estar orientado a lograr una posición de ventaja con respecto a los competidores. En términos generales, existen tres posiciones de ventaja por las cuales puede optar una empresa al definir su propuesta de valor: 56 Capítulo 3 Estrategia, innovación y competitividad 1. Excelencia en la operación: cuando una empresa compite con esta posición de ventaja, sus productos y servicios están orientados al cliente sensible al precio que busca un servicio básico sin problemas. Para lograr excelencia en la operación, los procesos de la empresa deben estar estandarizados, altamente automatizados e integrados a través de las fronteras de la organización. Los sistemas y procesos administrativos se defi nen y ejecutan “de arriba a abajo” para garantizar el apego al modelo operativo y los empleados son más dirigidos que autónomos. McDonald’s ilustra esta forma de competir. La empresa vende una gama de productos limitados, estándar y de bajo costo. Para lograrlo, establece acuerdos comerciales de alto volumen con un mismo conjunto de proveedores que surten los insumos a todos los puntos de venta de la empresa. Los procesos de operación están claramente definidos y automatizados con las mismas máquinas (por ejemplo, las que se usan para servir los refrescos o para preparar las papas fritas) con miras a garantizar que en todos los locales tengan consistencia en lo que ofrecen. Otras empresas que compiten de esta manera son Walmart, Southwest Airlines y Federal Express. 2. Intimidad con los clientes: cuando una empresa compite con esta posición de ventaja, su objetivo es darle al cliente lo que pida y lograr una capacidad de respuesta hacia sus demandas, que ningún otro competidor pueda ofrecer. A diferencia de la posición de ventaja anterior, sus productos y servicios son, en muchos casos, únicos para cada uno de sus clientes. Por ello, sus procesos operativos son flexibles y facilitan múltiples modos de generar y entregar productos y servicios de acuerdo con las características particulares de cada cliente. La gente que atiende a los clientes tiene las facultades necesarias para tomar decisiones con base en información detallada de consumidores y canales. El objetivo es llegar a entender tan bien a cada cliente, que nos constituyamos en un “socio” de ellos, creando una barrera de entrada para otros competidores. Muchas empresas consultoras, como McKinsey, Deloitte o KPMG, que tienen como objetivo ayudar a sus clientes a resolver problemas o mejorar procesos para crear valor, compiten de esta forma. Sin embargo, no sólo las empresas de servicios son capaces de competir en esta posición de ventaja. Una empresa productora de pegamentos sofisticados para pegar las alas de los aviones de una empresa como Boeing, también competiría de esta manera, ya que sus productos se fabricarían especialmente para las necesidades de Boeing en función de las características particulares de sus nuevos aviones. Lo mismo ocurre con empresas como Lutron Electronics, que proporciona equipos para instalaciones eléctricas con características particulares en cada pedido de sus clientes. 3.4 Posiciones de ventaja competitiva • • • 57 “El mejor precio” “Servicio básico pero sin problemas” “Excelente valor por mi dinero” Excelencia en la operación Liderazgo en productos y servicios • FIGURA 3.3 Posiciones de ventaja • • “Realmente entienden mi negocio” “Exactamente lo que necesito” “Socio de negocio” Intimidad con el cliente • • • “Siempre adelante” “Precio alto, pero vale la pena” “Permanentemente innovando” 3. Liderazgo en productos y servicios: cuando una empresa compite por superioridad en desempeño, su objetivo es posicionarse en la mente de sus clientes, como el proveedor que va adelante de sus competidores en cuanto a la funcionalidad o características que tienen sus productos/servicios. Por ello, estas empresas se mantienen permanentemente innovando y son los primeros en entrar al mercado con nuevos productos y servicios de una funcionalidad superior. Para lograrlo, su estructura organizacional es flexible y en su cultura de trabajo se promueve el interés por experimentar y el trabajo en equipo. Los procesos clave enfatizan el conocimiento del mercado, la innovación y la reducción del ciclo del producto, desde la generación de ideas hasta su inserción en el mercado. Gillette, por ejemplo, invirtió cientos de millones de dólares en el desarrollo de los cartuchos de su modelo Mach 3, los cuales, si bien son más caros que otros productos de la competencia, ofrecen un desempeño superior para el consumidor. Otras empresas que compiten con esta posición son Nike, 3M y Sony. Ahora bien, ¿puede una empresa optar por competir en más de una de las tres posiciones de ventaja? En términos generales, lo adecuado es enfocarse en ser el mejor de la industria en alguna de las posiciones señaladas y lograr paridad con el promedio de los competidores en las dos restantes. La razón de ello es que las tres posiciones tienen elementos incompatibles entre sí. Una organización no puede tener al mismo tiempo procesos flexibles y adaptables, y a la vez rígidos y automatizados. Adicionalmente, el éxito de una organización depende de que sus clientes/intermediarios tengan clara la propuesta de valor. 58 Capítulo 3 Estrategia, innovación y competitividad Considérese lo que le ocurrió a Continental Airlines cuando hace algunos años quiso competir con Southwest Airlines. La propuesta de valor de Southwest estaba dirigida a clientes sensibles al precio y a la conveniencia. Con miras a reducir el precio de los boletos y el tiempo de espera en la sala, la empresa optó por volar solamente de aeropuertos pequeños en rutas de alto volumen y limitar algunos servicios que tenían un impacto negativo en los costos: los boletos sólo se vendían en despachadores automáticos para evitar el pago de comisiones a los agentes, no se permitía registrar equipaje y no se ofrecía servicio de comida en los vuelos. En contraposición a estas limitaciones, los pasajeros podían llegar con menos de media hora a abordar sus vuelos y el costo del boleto era sustancialmente inferior. Southwest daba además una mayor utilización a su flota, por contar con un solo tipo de avión y por volar de aeropuertos pequeños menos congestionados, lo cual la hacía una de las pocas aerolíneas rentables. Al ver esto, Continental decidió crear una nueva aerolínea, denominada Continental Lite, para competir con Southwest en este segmento del mercado. Sin embargo, la instrumentación de esta idea careció del foco adecuado para poder hacer realidad su propuesta de valor. Para evitarse problemas con los agentes de viajes, Continental decidió vender boletos usando este canal, lo cual incrementaba el costo por el pago de comisiones. Asimismo, para crear sinergias con el resto de la organización la empresa decidió que Continental Lite volaría de los mismos aeropuertos con los cuales ya tenía negociados acuerdos comerciales. El resultado fue que la empresa empezó a incumplir la promesa de menor tiempo de espera en la sala y a perder dinero por no haber hecho más eficientes sus procesos de operación. Desde luego, una empresa muy grande puede tener varias unidades de negocio con ofertas de productos/servicios orientadas a diferentes segmentos del mercado. Sin embargo, cada una de estas unidades de negocio debe tener clara y bien sustentada su propuesta de valor. 3.5 Fuentes de ventaja competitiva Para lograr y mantener cualquiera de las posiciones de ventaja descritas en la sección anterior, las organizaciones deben contar con una o más fuentes de ventaja. Una empresa puede, por ejemplo, tener mejores recursos que los competidores. Por ejemplo, Industrias Peñoles, el principal productor de plata a nivel global, tiene una mina en la ciudad de Fresnillo con una concentración de plata por tonelada muy superior al de otras minas en el mundo, ello le permite colocarse como uno de los proveedores más competitivos en costos de este mineral. De igual forma, una aseguradora puede contar con una fuerza propia de ventas que le brinde una cobertura geográfica mayor que la de sus competidores. Otros ejemplos de superioridad en recursos son la escala y capacidad de la infraestructura, la capacidad y estructura financiera, contar con marcas y patentes o tener un menor costo de insumos, entre otros. 3.6 Cadena de valor 59 Otra fuente de ventaja la constituye tener habilidades superiores a las de los competidores para realizar alguna tarea que impacte en el valor percibido por los clientes. Por ejemplo, una empresa automotriz como Mercedes o BMW puede tener una mejor capacidad de diseño que la de otros competidores. De igual forma, una casa de bolsa puede contar con conocimiento especializado para identificar oportunidades de mejora en los portafolios de inversión de sus clientes que otros proveedores no tienen. Y una tienda departamental puede tener compradores con más sentido de olfato para detectar tendencias en la moda. Asimismo, una empresa puede distinguirse por contar con una mayor velocidad y flexibilidad de respuesta por establecer relaciones más cercanas con los clientes y por su experiencia en identificar, negociar y administrar alianzas. Una tercera categoría de fuentes de ventaja la constituyen los controles con los que cuenta la empresa, que ayudan a traducir los objetivos de la organización en acciones concretas y medibles, así como contar con información útil para la toma de decisiones. Los sistemas de costeo basado en actividades, por ejemplo, permiten que una organización conozca cuál es el verdadero costo asociado a la producción o entrega de cada uno de sus productos/servicios y poder enfocarse en aquellos que le generan mayor valor. De igual forma, sistemas para administración de inventarios, para monitorear la calidad, satisfacción y lealtad de clientes, y para administrar el flujo de efectivo, constituyen ejemplos de herramientas de control que pueden ayudar a que una empresa mantenga una posición de ventaja. La cuarta y más importante fuente de ventaja de una organización la constituyen sus actividades y la manera como ellas se alinean con la estrategia de la empresa. Las otras tres fuentes de ventaja: recursos, habilidades y controles, eventualmente se reflejan en la posibilidad de realizar actividades de manera distinta. Por ejemplo, de nada sirve que una empresa tenga un conocimiento más profundo de las necesidades de sus clientes y de sus propios procesos operativos, si no actúa en consecuencia para darles un mayor valor. Las actividades deben ser consistentes entre sí y reforzarse mutuamente para reforzar la posición de ventaja de la organización. 3.6 Cadena de valor Para entender el impacto de las actividades en la posición de ventaja de una organización, es necesario conocer el concepto de cadena de valor (Porter y Millar, 1985). La cadena de valor consiste en el conjunto de actividades que añaden valor a un producto o servicio y se clasifican en: a) Actividades primarias, que están asociadas con la creación y entrega del producto o servicio que ofrece la organización (por ejemplo, compras, manufactura, servicio, ventas y/o logística), y b) Actividades de soporte, que son esenciales para apoyar la creación o entrega del producto o servicio, aun cuando no lo transforman 60 Capítulo 3 Actividades de soporte Estrategia, innovación y competitividad Infraestructura Recursos Humanos Tecnología Abastecimiento Logística de entrada Operaciones Logística de salida Mercadotecnia y ventas Servicio Actividades primarias FIGURA 3.4 Cadena de valor directamente (por ejemplo, administración de recursos humanos, desarrollo de tecnología, abastecimiento e infraestructura). La figura 3.4 muestra en forma genérica el concepto de cadena de valor de una organización. Las actividades primarias incluyen la logística de entrada mediante la cual la empresa obtiene los insumos que habrá de transformar, a través de un conjunto de operaciones de manufactura en el producto terminado, las actividades de logística de salida por medio del cual dicho producto llega hasta los puntos de venta y las actividades asociadas con la mercadotecnia, venta y servicio a dicho producto. Si la empresa falla en la realización de alguna de estas actividades (por ejemplo, por una mala distribución se tienen retrasos en las entregas del producto a los clientes, o por una mala manufactura se presentan problemas de calidad en el producto), el valor percibido por los clientes se verá afectado negativamente. El marco conceptual anterior sería directamente aplicable a empresas de manufactura. Sin embargo, todas las empresas, independientemente de su giro, tienen una cadena de valor propia. La figura 3.5, por ejemplo, muestra las cadenas de valor de una tienda departamental y de una aseguradora. En el caso de la tienda, mejoras en las actividades primarias, como una mayor planeación de compras, nos ayudaría a tener “lo último, lo diferente”; una mejor asignación de los productos en la tienda contribuiría a que los clientes se sientan atraídos a comprarlos, y un mejor manejo de las promociones pueden ayudar a que el cliente perciba un mayor valor. En el caso de la aseguradora, un mejor diseño técnico y comercial puede hacer más atractivos nuestros productos/servicios, y un pago más oportuno puede aumentar la satisfacción y lealtad de los clientes. El concepto de “valor” a los ojos del cliente es sumamente importante, ya que las empresas compiten precisamente con base en el valor percibido de sus productos o servicios. Desafortunadamente, gran parte de las inversiones en tecnología se destinan a mejorar actividades administrativas internas, que no necesariamente se traducen en un valor agregado para los clientes. En ocasiones, algunas tecnologías, como las tecnologías de infor- 61 3.6 Cadena de valor Aseguradora Infraestructura Recursos Humanos Tecnología Contraloría y finanzas Diseño de productos Mercadotecnia Cotización Suscripción emisión Pago de siniestros Compras Distribución Venta Servicio Tienda Infraestructura departamental Recursos Humanos Tecnología Contraloría y finanzas Asignación FIGURA 3.5 Cadena de valor de una aseguradora y de una tienda departamental mación, se utilizan únicamente para mecanizar los procesos de control actuales, lo cual, si bien puede hacer más eficientes estos procesos, no implica de facto que la empresa se vuelva más competitiva. Es más, en ocasiones la mecanización de estos procesos hace que la empresa se vuelva más rígida y menos innovadora, lo que a la larga puede perjudicar su competitividad. Porter y Millar (1985) mencionan que para lograr ventajas competitivas las organizaciones deben cambiar las actividades de la cadena de valor, cambiar las relaciones entre estas actividades o bien modificar directamente los productos o servicios de la organización. Todas las actividades de la cadena de valor tienen un componente f ísico y un componente de información. Por ejemplo, la actividad primaria de logística de salida involucra componentes f ísicos (camiones, productos, inventarios, almacenes, recursos humanos) y de información (rutas, itinerarios, horarios, costos, niveles de inventario). El buen uso de las tecnologías estará orientado a modificar las actividades, no sólo a mecanizar el registro de transacciones. Por ejemplo, la División Arneses del Grupo Condumex desarrolló un sistema heurístico de balanceo de línea para simular planes de producción, el cual balancea la carga en las máquinas de una sección de la planta y reduce los tiempos ociosos en la línea de producción (Zozaya, 1991). Este sistema modifica una de las actividades de la cadena de valor (i.e., la operación o manufactura) y permite tener una mejor respuesta a los requerimientos de los clientes (lo que se traduce en un beneficio tangible para ellos). Similarmente, otras tecnologías de producto o proceso pueden aplicarse en forma creativa para modificar diferentes actividades de la cadena de valor. 62 Capítulo 3 Estrategia, innovación y competitividad 3.7 Innovación de procesos Además de poder transformar las actividades de la cadena de valor, las nuevas tecnologías se pueden utilizar para mejorar la coordinación entre estas actividades. Muchos de los problemas de los procesos de una organización se deben a que éstos se encuentran fragmentados. Esta fragmentación es aún más pronunciada cuando se considera la relación entre una empresa y sus proveedores y clientes. El éxito que han tenido los sistemas de intercambio electrónico de datos (EDI), por ejemplo, se debe precisamente a que ayudan a aliviar esta fragmentación. Con un sistema de este tipo, el proveedor y el comprador pueden mejorar la sincronización de sus actividades y tener una mejor coordinación y comunicación. Hammer y Champy (1993) sugieren concebir a las tecnologías como herramientas que nos permiten romper con reglas obsoletas para concebir negocios. A continuación se dan algunos ejemplos. • • • • • Las bases de datos compartidas nos permiten tener información disponible en forma simultánea en todos los lugares donde se necesite. Anteriormente, las organizaciones no tenían esta posibilidad, y por ello muchos de sus procesos se realizaban en forma secuencial. Con esta tecnología muchos de estos procesos pueden realizarse en forma cooperativa, reduciendo el tiempo necesario para ejecutarlos y mejorando la calidad de los mismos. Así, la regla: “la información sólo puede estar en un solo lugar en un momento dado”, se vuelve obsoleta. Los sistemas expertos (SE) nos permiten representar y utilizar el conocimiento de expertos para apoyar la toma de decisiones de personal con menor conocimiento del campo de aplicación. La regla: “sólo los expertos pueden realizar trabajos complejos”, se vuelve obsoleta, ya que ahora un generalista puede realizar parte del trabajo de un experto. Las redes de comunicaciones y los sistemas ejecutivos de información permiten que una compañía pueda tener una toma de decisiones descentralizada y un control centralizado de la información. La regla: “las compañías tienen que escoger entre descentralizarse o centralizarse”, deja de ser aplicable. Los sistemas de soporte a la toma de decisiones permiten romper con la regla de que en la empresa: “solamente los gerentes pueden tomar decisiones”. Así, la toma de decisiones se vuelve parte integral de cualquier puesto. Los sistemas de rastreo e identificación automática permiten conocer la posición de vehículos, materiales y personas. Ya no es necesario “ir a buscar dónde están” estos componentes de la organización, sino que se puede tener información inmediata de su localización. 3.7 Innovación de procesos 63 De esta manera, las tecnologías de información actúan como un facilitador para reinventar la manera como operan las organizaciones. Gracias a ellas podemos pensar en un rediseño radical de los procesos del negocio; en una nueva forma de operar que antes no era posible. Por su parte, Davenport (1993) menciona los siguientes impactos de las nuevas tecnologías de información en la innovación de los procesos de una organización: • • • • Automatización: el beneficio más reconocido de las tecnologías de información es su habilidad para eliminar trabajo humano y para producir procesos más estructurados. Esta oportunidad ha sido aprovechada en manufactura mediante aplicaciones de robótica, sensores y actuadores. En áreas de servicio, donde los procesos se asocian con flujos de documentos, ciertas tecnologías de información, como los paquetes de workflow, han empezado a automatizar dichos flujos. Asimismo, otras aplicaciones, como las que se refieren al ruteo automático de llamadas (por ejemplo, para hacer más efectiva la cobranza), también han modificado sustancialmente los procesos organizacionales. La automatización también está jugando un papel importante en la administración de materiales e inventarios con el desarrollo de los sistemas de identificación automática, los sistemas de clasificación automática y los sistemas de almacenamiento y recuperación automática de materiales. Información: las tecnologías de información pueden utilizarse para capturar información de la funcionalidad de un proceso, con miras a hacerlo más efectivo o eficiente. En procesos productivos, diversas compañías han utilizado este tipo de aplicaciones para optimizar los planes de producción y reducir el consumo de energía. En procesos administrativos, los sistemas de información ejecutiva han jugado un papel muy importante en la retroalimentación que reciben los ejecutivos sobre el desempeño de la organización. Paralelismo: muchos procesos de la organización se realizan en forma secuencial por no aprovechar tecnologías de información, como las bases de datos distribuidas y las redes. Gracias a estas tecnologías y a los sistemas de diseño e ingeniería asistidos por computadoras, se pueden reducir los tiempos de desarrollo de productos o los tiempos asociados con procesos particulares. Por ejemplo, Kodak utilizó este tipo de tecnologías para reducir el tiempo de desarrollo de una nueva cámara portátil reciclable, y Phoenix Mutual Life hizo algo similar con el proceso de suscripción de pólizas de seguros. Rastreo: diversas aplicaciones de tecnologías de información para localización de vehículos y productos están siendo utilizadas por algunas organizaciones para mejorar sus procesos de logística de entrada o de distribución; por ejemplo, Federal Express lee múltiples veces la etiqueta de envío de los paquetes para conocer su lo- 64 Capítulo 3 • • • • Estrategia, innovación y competitividad calización, y la Delegación Benito Juárez (en México) utiliza radiolocalización para conocer la posición de sus patrullas. Asimismo, el uso de bases de datos para monitorear la evolución de procesos permite a las organizaciones tener un mejor control sobre éstos; por ejemplo, Johnson & Johnson tiene un centro de investigación centralizado con una base de datos donde se rastrea el estado de evolución de sus procesos de desarrollo de productos. Análisis: el uso de sistemas expertos (SE) y de sistemas para soporte a la toma de decisiones (DSS) permite a las compañías agilizar y hacer más efectivos los procesos asociados con el análisis de información para la toma de decisiones. Por ejemplo, American Express usa un SE para aprobar automáticamente solicitudes de crédito, y Progressive Insurance utiliza un DSS para identificar aquellos conductores que tienen bajo riesgo. Alcance geográfico: gracias a tecnologías de información (TI), como bases de datos distribuidas, videoconferencia, correo electrónico y redes de informática y telecomunicaciones, las compañías que están dispersas geográficamente pueden realizar trabajos en forma conjunta (e.g., para diseñar un nuevo producto o realizar trabajos de consultoría o planeación) o agilizar sus procesos de recibo y embarque. Integración: en relación con el impacto anterior, las TI pueden ayudar a integrar el trabajo de personas localizadas en diferentes unidades funcionales de la organización. Por ejemplo, el Gobierno del Distrito Federal (en México) ha implementado un sistema para que los contribuyentes puedan efectuar pagos en diferentes oficinas tributarias locales, sin importar su domicilio fiscal, para integrar esta información centralmente, de manera que sus estados de cuenta estén actualizados. Otras aplicaciones que han tenido mucho éxito para integrar a proveedores con compradores son los sistemas de negocio electrónico y de transferencia electrónica de fondos. Eliminación de intermediarios: otro impacto que están teniendo las TI se refiere a que el flujo de información se puede realizar en forma automática sin necesidad de intermediarios. Esto es aplicable tanto a procesos internos de la organización (e.g., con el uso de sistemas de información ejecutiva y de flujo de trabajo), como a procesos interorganizacionales. 3.8 Premio de la innovación En las secciones anteriores hemos explicado por qué es necesario contar con una estrategia que incluya una propuesta de valor clara, que esté sustentada en un conjunto de fuentes de ventaja competitiva. Asimismo, hemos argumentado que dicha propuesta de valor debe ser distinta a la de los competidores, y que esta diferenciación surge de modificar las actividades 3.9 Disciplina de la innovación 65 o procesos que constituyen la cadena de valor de una organización. También hemos explicado que ningún cambio es sostenible, y que por ello las empresas deben mantenerse permanentemente innovando la manera como hacen negocios. En esta sección complementamos dicha discusión con algunos datos que demuestran la validez de dichos argumentos, y que existe un “premio” del mercado para las empresas innovadoras. Jonash y Sommerlatte (1999) señalan que más que un cambio de liderazgo, que una fusión o adquisición y que un compromiso por reducción de costos, los inversionistas premian a la innovación. • • • • Las compañías en el 20% superior del ranking de la revista Fortune sobre innovación, crean el doble de valor que el resto de sus competidores en sus industrias; en contraparte, las compañías en el 20% inferior del ranking de Fortune sobre innovación, crean un tercio de valor que el resto de sus competidores en sus industrias. Adicionalmente, su investigación mostró que 95% de los analistas de Wall Street respondieron que existe un premio por la innovación; más de 90% indicaron que la importancia de la innovación ha crecido significativamente en los últimos años; más de 70% señalaron que la innovación es el driver principal de cómo el mercado valúa a las empresas. Por su parte, 84% de los ejecutivos entrevistados señalaron que la innovación es ahora un asunto estratégico para sus empresas, y 49% indicaron que habían progresado hacia el desarrollo y la aplicación de procesos sistemáticos y métricas para promover la innovación en sus organizaciones. Sin embargo, 85% de las 700 empresas indicaron que estaban insatisfechas con la manera como ellos manejaban la innovación, y señalaron que existía una brecha considerable en relación con las prácticas actuales de los negocios. ¿A qué se debe que exista esta brecha entre lo que las empresas hacen y lo que quieren hacer con respecto a la innovación? Tal parece que, a pesar de que en muchos ejecutivos existe la conciencia que la innovación es el proceso clave para el crecimiento, persisten dudas sobre invertir en un proceso que tiene costos altos y gran incertidumbre (Christensen y Overdorf, 1997). Aun cuando algunos ejecutivos están dispuestos a apoyar programas de innovación, falta gente con las habilidades y los “marcos conceptuales” adecuados. En las siguientes secciones explicaremos algunas de las mejores prácticas que han seguido las empresas innovadoras. 3.9 Disciplina de la innovación Tradicionalmente, al proceso de innovación se le asocia con cuatro factores: 1. creatividad, ya que es necesario generar ideas que permitan visuali- 66 Capítulo 3 Estrategia, innovación y competitividad zar nuevas formas de crear valor; 2. espíritu emprendedor en la gente que forma la empresa para tomar los riesgos que implica cambiar lo que la organización hace; 3. campeones que impulsen las nuevas ideas y venzan los obstáculos impuestos dentro y fuera de la organización, y 4. un ambiente libre donde se pueda actuar. Desafortunadamente, estos cuatro factores no son suficientes para lograr que una empresa se vuelva innovadora, ya que la creatividad en forma aislada puede originar ideas que nunca se aprovechan, el espíritu emprendedor puede llevarnos a esfuerzos fragmentados que diluyan la energía de la organización, los campeones pueden volverse “prima donnas” y empezar a pensar más en los objetivos de sus propias iniciativas que en los objetivos globales de la organización, y el ambiente libre puede llevar a una falta de control y a un desaprovechamiento de los recursos de la organización. Las empresas exitosas en innovar entienden a la innovación de acuerdo con un nuevo paradigma compuesto por cuatro elementos: 1. Visión: entendida como los objetivos a largo plazo de una organización, es la brújula que permite orientar todos los esfuerzos de una empresa, incluyendo aquellos que tienen que ver con la reinvención de sus procesos, productos y servicios. 2. Mapa del camino: para poder alcanzar la visión, las empresas requieren de un “mapa del camino” que les ayude a ver si van en la dirección correcta. Este mapa debe identificar las tecnologías, competencias, recursos y familias de productos/servicios requeridos para alcanzar la visión. Por ejemplo, en la empresa Rockwell, a partir de un plan de negocios se generan planes de producto y proceso que posteriormente se traducen en un conjunto de necesidades tecnológicas para cada unidad de negocio. Luego se analizan las necesidades de todas las unidades, se establecen prioridades y se reduce el espectro a un conjunto de proyectos de investigación críticos. Finalmente, a partir de los proyectos críticos se hace un análisis de aquellos aspectos fundamentales que son comunes a varios de ellos, buscando lograr sinergias, hasta identificar aquellos elementos tecnológicos “de empuje” sobre los cuales habrá que concentrarse para apalancar dichos proyectos. 3. Enfoque de proceso: Drucker (1985) señala que la innovación es más de “transpiración” que de “inspiración”. La innovación debe verse más como una disciplina que como un evento casuístico, y ello implica contar con procesos para identificar necesidades u oportunidades de mercado para crear visiones de productos y tecnologías, y para desarrollar una estrategia para producir y vender esos productos o tecnologías. 4. Competencias: las empresas requieren competencias para descubrir necesidades no articuladas de clientes potenciales, para detectar y administrar las ideas valiosas, para traducir rápidamente y a 3.10 Oportunidades y fuentes de la innovación 67 bajo costo estas ideas en productos/servicios, y para identificar mecanismos que lograrán hacer que el proceso sea repetible y mejorable. 3.10 Oportunidades y fuentes de la innovación Drucker (1985) señala que a pesar de lo mucho que se ha escrito sobre la personalidad emprendedora, lo que la mayoría de los emprendedores tienen en común no es su personalidad, sino su compromiso a una práctica sistemática de la innovación. En este contexto, la innovación es el medio por el cual un emprendedor crea nuevos recursos para producir riqueza o brinda a los recursos existentes un nuevo potencial para crear riqueza. En otras palabras, las empresas emprendedoras son aquellas que permanentemente se esfuerzan por crear un cambio enfocado y orientado en el potencial económico o social de una organización. La innovación puede surgir de un chispazo de genio (como el famoso “¡Eureka!” de Arquímedes). Sin embargo, la mayor parte de las innovaciones, especialmente las exitosas, surgen de una búsqueda consciente y orientada de oportunidades de innovación. Drucker indica que existen cuatro áreas de oportunidad para la innovación: 1. ocurrencias inesperadas, como la que le aconteció a IBM cuando sin pensarlo encontró que la máquina que acababa de desarrollar en la década de los años 30, con intención de venderla a los bancos, resultaba atractiva para las bibliotecas públicas; 2. incongruencias, como la que ocurría con la industria del acero en los años 70 donde, a pesar del crecimiento del mercado, todos los competidores tenían pérdidas millonarias por los altos costos del capital; 3. necesidades de procesos, como las que estaban presentes en la industria de los periódicos, donde fue necesaria la convergencia del linotipo y de la publicidad masiva para poder tener periódicos de alta circulación a un costo razonable, y 4. cambios en la industria y el mercado, como los que ocurrieron en la industria financiera con el surgimiento de los inversionistas institucionales. Asimismo, Drucker indica que estas oportunidades surgen como consecuencia de tres principales fuentes de innovación alrededor de la organización: 1. cambios demográficos, por ejemplo: número de personas, distribución de edades, educación, ocupaciones, localización geográfica y nivel de ingresos; 2. cambios en las percepciones, donde los hechos no se alteran, pero sí su significado, y 3. nuevo conocimiento. De estas tres fuentes, la más confiable y predecible es la asociada con cambios demográficos. Un ejemplo fue lo que ocurrió en Europa después de la Segunda Guerra Mundial, donde por primera vez se tuvo una población de jóvenes educados y con poder adquisitivo, oportunidad que fue aprovechada por el Club Méditerranée para ofrecer un nuevo concepto de viaje. En cuanto a los cambios en las percepciones, un ejemplo lo constituye la percepción de que cada vez 68 Capítulo 3 Estrategia, innovación y competitividad somos menos sanos, a pesar de que los datos demuestran lo contrario. Ello hizo que la empresa de mayor crecimiento en 1983 fuera una compañía de equipos de ejercicio para el hogar. Finalmente, las innovaciones provenientes de nuevo conocimiento son a las que comúnmente la gente se refiere cuando habla de innovación. Este tipo de innovaciones difiere de todas las demás, ya que, como las “súper estrellas”, pueden ser temperamentales, caprichosas y dif íciles de dirigir. Además, son las que más tiempo requieren para madurar (aproximadamente 50 años). Para ser efectivas, este tipo de innovación demanda no únicamente un solo tipo de conocimiento, sino varios. Por ejemplo, la computadora es el resultado de avances en la aritmética binaria; la concepción de Charles Babbage sobre una máquina calculadora (mediados del siglo xix); la máquina de tarjetas perforadas de Hollerith (1890); el tubo de audión (switch electrónico); la lógica simbólica de Bertrand Russell y Alfred North Whitehead, y los conceptos de programación (ametralladoras en la Primera Guerra Mundial). Drucker indica que aunque todo este conocimiento se encontraba disponible en 1918, la primera computadora digital apareció hasta 1946. Las empresas existentes se concentran en defender sus mercados y no aprovechan los mercados emergentes (Christensen y Overdorf, 1997). Dado que las nuevas oportunidades rara vez se ajustan a la manera como una empresa se acerca al mercado y se organiza para servirlo, los innovadores aprovechan esto y se quedan solos en el nuevo mercado por un tiempo considerable. El proceso sistemático y dirigido de la innovación comienza con un análisis de las fuentes de nuevas oportunidades. Algunas oportunidades no tendrán mucha relevancia, pero es importante analizar todas y hacerlo en forma permanente. No hay que olvidar que la innovación es conceptual y de percepciones, y por ello los innovadores deben salir y ver, preguntar y escuchar. Los innovadores exitosos usan ambos lados del cerebro, ven los hechos y a la gente (valores, expectativas, necesidades) y determinan qué tiene que hacer la innovación para satisfacer la oportunidad, probando sus hipótesis en el mercado. Sobre todo, una innovación es más el fruto del trabajo que del genio. Requiere conocimiento, con frecuencia ingenuidad y foco, ya que los innovadores se concentran en aquello en lo que tienen una competencia clave (por ejemplo, Edison en el campo eléctrico). Sin embargo, si no hay diligencia, persistencia y compromiso, el talento, la ingenuidad y el conocimiento no sirven de mucho. 3.11 Metodología de innovación Jonash y Sommerlate (2000) desarrollaron una metodología para la innovación, la cual consta de las seis rutas (pathways) o elementos complementarios mostrados en la figura 3.6. 69 3.11 Metodología de innovación Portafolio estratégico Métrica motivadores Cambio cultural Proceso de innovación Administración de recurso Estructura organizacional FIGURA 3.6 Elementos de una metodología de innovación 1. Cambio cultural para sostener la innovación y el liderazgo en productos y tecnologías. Para poder innovar es necesario crear una cultura propicia que reconozca la importancia que tiene la informática en el nuevo entorno de los negocios, y que haya un entendimiento sobre los procesos que están asociados con la innovación. El cambio cultural implica lograr que la investigación y el desarrollo dejen de ser un feudo al cual las áreas operativas perciben como un centro de costos, para convertirse en una responsabilidad directamente ligada con la operación del negocio. Los proyectos deben dejar de estar orientados únicamente a las necesidades del mercado actual y restringidos a presupuestos de corto plazo para pasar a convertirse en proyectos dirigidos a generar valor. Lo anterior implica entender cómo la tecnología puede apoyar los objetivos estratégicos de una organización y lograr que se le considere como un activo estratégico. Asimismo, la administración de proyectos de innovación y su ejecución debe ser más dinámica, a través de redes de conocimiento, y soportada por una infraestructura que permita administrar ideas desde su concepción hasta que se incorporan en productos y servicios. 2. Portafolio estratégico integrado. Las organizaciones, tanto públicas como privadas, deben conocer cuáles son las competencias sobre las que se habrá de sustentar el crecimiento a futuro, e identificar un portafolio adecuado de proyectos que traduzcan estas competencias en productos y servicios. Anteriormente la mayor parte del esfuerzo asociado con la definición de una estrategia de tecnología se concentraba en tener un portafolio de proyectos que tuviera un buen balance de tecnologías emergentes y maduras. Sin 70 Capítulo 3 3. 4. 5. 6. Estrategia, innovación y competitividad embargo, ahora el esfuerzo global debe abarcar también el desarrollo de competencias tecnológicas clave y la identificación de fuentes y proveedores tecnológicos externos. La realización de estas actividades requiere de la identificación de fuerzas, debilidades, oportunidades y amenazas (SWOT), así como de brechas tecnológicas, pero también es necesario traducir la visión de la organización en una visión sobre las tecnologías que van a apoyar el crecimiento de la misma. Proceso de innovación para traducir las ideas en productos/tecnologías/servicios comercializables. La innovación debe concebirse como un proceso integral, estructurado y medible, que comienza desde la generación de ideas hasta el desarrollo de productos/tecnologías comercializables. Esta tercera ruta del modelo (ver figura 3.7) puede concebirse como dos embudos: uno que tiene que ver con el desarrollo de nuevas tecnologías, y otro con el de nuevos productos y servicios. El mayor reto se da en la parte superior del embudo, debido a la ambigüedad e incertidumbre que tiene asociados, así como en la parte inferior, donde se requiere de tomadores de decisión que puedan discernir entre las múltiples alternativas posibles que existen para llevar la tecnología y los productos/servicios al mercado. Administración integral de recursos. La innovación requiere de integrar adecuadamente recursos humanos, financieros y tecnológicos, de tal forma que se logre un apalancamiento en toda la organización. Esta ruta tiene que ver con la instrumentación de mecanismos para contar con recursos financieros, como capital semilla y capital de riesgo, para apoyar las iniciativas tecnológicas. Asimismo, la ruta incluye también la creación de recursos físicos que sirvan como plataforma para el desarrollo de proyectos de innovación. Con miras a apalancar de mejor manera estos recursos, la comunicación y los procesos administrativos deben estar diseñados para catalizar la innovación. Estructura organizacional de redes. Para obtener un mejor aprovechamiento del capital intelectual, se debe contar con una estructura organizacional que promueva la colaboración entre todos los agentes que participan en el proceso de innovación. La dinámica del entorno competitivo y tecnológico requiere que una organización tenga la capacidad de responder ágilmente ante los retos y las oportunidades que se le vayan presentando. Por ello la empresa debe instrumentar redes de recursos físicos, humanos y tecnológicos, dentro y fuera de la organización, que le permitan aprovechar las capacidades individuales de la mejor manera posible. Motivadores y métricas de desempeño. Se requiere de métricas que midan qué tanto liderazgo se tiene en tecnologías de informa- 71 3.12 Mapa de la estrategia Visión y estrategias de la empresa DESARROLLO Entendimiento Conocimiento Inteligencia DE Incertidumbre Ambigüedad Administración de proyectos multifuncionales TECNOLOGÍAS Múltiples alternativas DESARROLLO DE Asignación de recursos y planeación PRODUCTOS Y SERVICIOS Mercado FIGURA 3.7 Proceso de innovación ción, cuánto se está aprovechando este liderazgo en las aplicaciones del negocio y de qué manera la innovación está apoyando la estrategia de la organización, con miras a evitar el aislamiento de la función tecnológica del resto de la empresa. Dichas métricas pueden catalogarse en cuatro tipos: 1. de resultados, que son las que tienen que ver con lo que ocurre después que una acción clave se ha realizado (por ejemplo, utilidades, participación de mercado); 2. de tiempo real, que tienen que ver con la ejecución misma del proceso al cual están asociadas (por ejemplo, si se cumplió el tiempo programado o se logró el costo pronosticado); 3. de avanzada, que son medidas que buscan predecir el éxito mediante la medición de factores asociados con el clima y la cultura organizacionales (por ejemplo, motivación del personal), y 4. de aprendizaje, que miden la mejora de indicadores clave (por ejemplo, aumento en el porcentaje de utilidades de nuevos productos o servicios). 3.12 Mapa de la estrategia A lo largo del capítulo ha quedado de manifiesto la importancia que tiene la estrategia como un elemento fundamental para poder competir exitosamente. En esta última sección describimos el concepto de “mapa de la estrategia” de Kaplan y Norton (2000), el cual brinda a las organizaciones una herramienta para comunicar su estrategia y para identificar los procesos y sistemas que les ayudarán a implementar esta estrategia. Este concepto tiene como base la metodología del Balanced Scorecard (BSC) desarrollada 72 Capítulo 3 Estrategia, innovación y competitividad por estos autores, la cual ha tenido gran difusión en el ámbito empresarial, ya que permite clarificar y traducir la visión y la estrategia de la organización; comunicar los objetivos estratégicos y los medidores asociados con cada uno de ellos; establecer metas a corto plazo y alinear entre sí a las distintas iniciativas estratégicas, y retroalimentar a la organización con respecto a su estrategia y a su instrumentación. Esta retroalimentación, que sus creadores denominan como “de segundo ciclo”, no sólo ayuda a evaluar si la estrategia se está instrumentando conforme a lo planeado, sino también si ésta sigue siendo viable y exitosa en función de los resultados obtenidos y de los cambios que ocurren en el entorno. La necesidad de contar con un “mapa de la estrategia” en este nuevo entorno competitivo se explica porque, si bien en la era industrial las compañías creaban valor mediante la transformación de insumos materiales en productos terminados, en la era de la información, la transformación de activos tangibles no es suficiente: para crear valor los negocios deben, cada día más, crear, transformar, desplegar y utilizar activos intangibles, como son las relaciones con los clientes, las habilidades y el conocimiento de sus empleados, las tecnologías de información y una cultura corporativa que promueva la innovación, la solución de problemas y el mejoramiento organizacional. Un “mapa de la estrategia” muestra cómo una organización va a convertir sus iniciativas y recursos —incluyendo activos intangibles, como la cultura corporativa y el conocimiento de sus empleados— en activos tangibles, así como las relaciones de causa-efecto por medio de las cuales ciertas mejoras dan lugar a los resultados deseados. Como puede observarse en la figura 3.8, un mapa de la estrategia describe: • • • • El conocimiento, las habilidades y los sistemas que los empleados de una organización necesitarán (su aprendizaje y crecimiento)… …para innovar y construir las capacidades y eficiencias estratégicas (en los procesos internos de la organización)… …que permitirán crear valor específico para los mercados (i.e., clientes) que se atienden, lo cual... …eventualmente le permitirá a la organización crear mayor valor para sus accionistas (resultados financieros). Un “mapa de la estrategia” proporciona un marco conceptual para describir cualquier estrategia en forma similar, como un estado de resultados o un balance; sirve para describir el desempeño financiero de la organización. El mapa incluye los objetivos, iniciativas y metas de la organización; las métricas o medidores con los cuales se va a evaluar el desempeño en el logro de éstos, y las relaciones causa-efecto que son el fundamento de la dirección estratégica. De esta forma, la estrategia se hace explícita, se puede comunicar y se puede medir el avance de su implementación y la validez de la dirección estratégica. 73 Aprendizaje y crecimiento Procesos Cliente Financiera 3.13 Comentarios finales Crear valor para el accionista Estrategia de crecimiento en utilidades Desarrollar la franquicia Aumentar el valor agregado a los clientes Estrategia de productividad Mejorar la estructura de costos Mejorar la utilización de activos Liderazgo en productos y servicios Intimidad con el cliente Excelencia en la operación Aumentar el valor agregado a los clientes mediante la administración de relaciones con ellos Desarrollar la franquicia a través de innovaciones Competencias de los empleados Lograr excelencia en la operación mediante mejoras en proceso de logística y operaciones Tecnología Ser un buen ciudadano mediante mejoras en procesos ambientales y regulatorios Cultura corporativa FIGURA 3.8 Mapa de la estrategia 3.13 Comentarios finales Una preocupación fundamental de toda organización es identificar mecanismos para reducir la brecha que existe entre tecnología y estrategia. La rápida evolución que han tenido las tecnologías es un factor que afecta no sólo las decisiones asociadas con la investigación y el desarrollo tecnológico en las organizaciones, sino que está íntimamente ligada con la estrategia de la corporación. Sin embargo, muchas corporaciones fracasan en su intento por aprovechar las oportunidades que brinda la tecnología para obtener ventajas competitivas, cambiar la manera de competir y rediseñar los procesos de la organización. Un uso efectivo de la tecnología lleva consigo no solamente asignar un cierto presupuesto para actividades de investigación y de ingeniería, sino que implica cambios en la estructura organizacional, en los procesos administrativos asociados con la administración de la función tecnológica y, sobre todo, requiere un cambio cultural y una nueva actitud hacia la tecnología, de tal forma que ésta sea considerada como un medio clave para mejorar la competitividad de la empresa. Para poder administrar el uso de tecnologías en los procesos de negocios de una manera más efectiva, es necesario contar con profesionistas que, por un lado, conozcan las nuevas tecnologías desde un punto de vista 74 Capítulo 3 Estrategia, innovación y competitividad conceptual y práctico, y por otro, que entiendan el funcionamiento de los diferentes aspectos que conforman a la empresa. Las empresas requieren de gente especializada que tenga los conocimientos necesarios para idear soluciones innovadoras, que le otorguen ventajas competitivas a las organizaciones en las cuales trabajan y que les ayuden a mejorar su productividad y a rediseñar los procesos de los negocios, aprovechando las oportunidades que brindan las tecnologías de proceso, producto e información. Por ello el rol del ingeniero industrial es cada vez más importante en el entorno de modernización que vive nuestro país y el resto del mundo. EJERCICIOS PROPUESTOS 1. ¿Qué factores tecnológicos, sociales, económicos, etc., considera que han dado lugar a un ambiente más competitivo? 2. ¿Qué es una estrategia y sobre qué aspectos se puede decidir? 3. ¿A qué se denomina frontera de productividad y cuál es su importancia? 4. Describa las tres posiciones de ventaja para defi nir su propuesta de valor. 5. En el capítulo se describe el caso de Continental Lite. Investigue un caso similar y analice dónde ocurrió la incompatibilidad entre las posiciones de ventaja. 6. ¿Qué es la cadena de valor y cómo se clasifican sus actividades? Dé un ejemplo. 7. Analice el caso de éxito que tuvo Apple con la introducción del iPod. Investigue el caso y descríbalo según lo conceptos de innovación descritos a lo largo del capítulo. 8. Revise y analice el artículo de M. Porter sobre conceptos y casos de estrategia (Porter, M. E., “What’s Strategy?”, en Harvard Business Review, 74, núm. 6, noviembre-diciembre de 1996:61-78). 9. Uno de los casos más interesantes sobre estrategia y operaciones lo representa la empresa Walmart. Analice las características e innovaciones de la estrategia de Walmart. Referencias Christensen, C. M. y Overdorf, M. (1997). The Innovator’s Dilemma: When New Technologies Cause Great Firms to Fail. Harvard Business School Press. Davenport, T. H. (1993). Process Innovation: Reengineering Work through Information Technology, Harvard Business School Press. Day, G. S. y Reibstein, D. J. (Eds.). (1997). Wharton on Dynamic Competitive Strategy, John Wiley & Sons. Drucker, P. (1998). “The Discipline of Innovation”, Harvard Business Review, mayo-junio de 1985 y noviembre-diciembre de 1998. Drucker, P. (1985). Innovation and Entrepreneurship: Practice and Principles, Harper & Row Editores. Hammer, M. y Champy, J. (1993). Reengineering the Corporation: A Manifesto for Business Revolution, Harper Business. Jonash, R. y Sommerlatte, T. (1999). The Innovation Premium, Perseus Books. Kaplan, R. S. y Norton, D. P. (2000). “Having Trouble with your Strategy? Then Map IT”, Harvard Business Review, septiembre-octubre del 2000. Kaplan, R. S. y Norton, D. P. (2000). The Strategy Focused Organization, Harvard Business School Press. Referencias Porter, M. y Millar, V. E. (1985). “How Information gives you Competitive Advantage”, Harvard Business Review, julio-agosto de 1985. Porter, M. (2001). “Strategy and the Internet”, Harvard Business Review, marzo del 2001. Porter, M. (1996). “What is Strategy?”, Harvard Business Review, noviembre-diciembre de 1996. 75 Zozaya Gorostiza, C. (1991). “Use of AI-Based Tools in a Mexican Automotive Part Supplier”, en Cantú Ortiz, F. (Ed.). Operational Expert Systems Applications in Mexico. Pergamon Press. CAPÍTULO 4 AUTOR: Dr. Marcelo Mejía Olvera Algorítmica y programación 4.1 Solución automatizada de problemas 4.2 Algoritmos 4.3 Programación 4.4 Ingeniería de software 4.1 Solución automatizada de problemas Una característica de las personas, y en especial de los ingenieros, es que les disgusta realizar labores repetitivas de las que no obtienen ninguna satisfacción. Es por esto que a lo largo de la historia se han inventado dispositivos que permiten remplazar o auxiliar algunas habilidades humanas y automatizar estas labores para resolver problemas con mayor rapidez y con menor probabilidad de error. Para solucionar un problema se parte de una idea, se diseña un método preciso y se construye un dispositivo que lo automatiza. A continuación se mencionan brevemente algunos de estos dispositivos que dieron lugar, con el paso del tiempo, al desarrollo de las computadoras. Una de las primeras máquinas aritméticas operacionales, la Pascalina, fue creada por Blaise Pascal en 1642 para ayudar a su padre a sumar cantidades de dinero y facilitar su trabajo como recolector de impuestos. Pascal se preocupaba por la gran susceptibilidad al error que se tenía al hacer cuentas largas y decidió que era necesario crear un artefacto capaz de automatizar el metódico y tedioso trabajo de hacer sumas y restas. De hecho, la máquina de Pascal sólo podía sumar; para restar se usaban técnicas de complemento, como las utilizadas por las computadoras actuales, mientras que las multiplicaciones y divisiones se realizaban mediante una serie de sumas o restas. Más tarde, en 1673, Gottfried W. Leibniz inventó una máquina para calcular (la rueda de Leibniz) que podía efectuar las cuatro operaciones aritméticas fundamentales de forma totalmente automática. 78 Capítulo 4 Algorítmica y programación En 1801, Joseph Jacquard perfeccionó un telar en el que un programa codificado en binario y escrito en tarjetas perforadas controlaba el patrón de tejido de la tela. El programa automatizaba el hilado de patrones complejos e hizo posible que un proceso artesanal se convirtiera en uno industrial; en 1812 funcionaban en Francia 11 000 telares de este tipo. Las tarjetas perforadas del telar de Jacquard se utilizarían después en los diseños de Babbage y en las máquinas de Hollerith. En la primera mitad del siglo xix la mayoría de los cálculos en el contexto de la astronomía, la navegación, la ingeniería y la ciencia en general se hacían con base en tablas matemáticas: de logaritmos, de funciones trigonométricas y estadísticas. Estas tablas las generaban equipos de matemáticos que trabajaban con calculadoras primitivas. En 1822, después de construir un prototipo funcional pequeño, Charles Babbage propuso construir una máquina de diferencias para automatizar el cálculo e impresión de estas tablas, y así eliminar los (muchos) errores que contenían. La máquina debía calcular valores sucesivos de una función aproximándola con polinomios y usando el método de diferencias finitas que involucra sólo sumas sucesivas. Esta máquina, que debía utilizar diferencias hasta de sexto orden y números de 18 dígitos, no estaba aún terminada cuando Babbage tuvo la idea de construir una más sofisticada: la máquina analítica. Aunque este proyecto también fue abandonado por problemas financieros y el excesivo perfeccionismo de Babbage, tiene el enorme mérito que la organización de la máquina analítica es, a grandes rasgos, muy parecida a la de las computadoras actuales. La máquina analítica, conforme a la tecnología de su época, era una computadora mecánica movida por engranes que debía almacenar y procesar información. Augusta Ada King, condesa de Lovelace, escribió programas en tarjetas perforadas para esta computadora, el primero de los cuales calculaba la serie de Fibonacci. A finales del siglo xix, Herman Hollerith combinó la vieja tecnología de tarjetas perforadas con la nueva tecnología de bulbos (tubos de vacío) para producir una máquina capaz de ordenar, clasificar y contar. Utilizando 56 de estas máquinas se procesaron los datos del censo de 1890 de Estados Unidos en sólo seis meses, en lugar de tardar siete años y requerir cientos de empleados, como sucedió en el censo anterior. La información de cada individuo se codificaba en tarjetas mediante orificios que se hacían en ciertas posiciones, dependiendo del dato que se estuviera almacenando. Por ejemplo, unos agujeros se hacían para denotar que un individuo de la población era mujer, y otros, en posiciones diferentes, si era hombre. Hollerith fundó una empresa, la cual después formó parte de un consorcio que en 1924 cambió su nombre a IBM para producir y vender sus máquinas. Aunque estas máquinas no eran verdaderas computadoras, se usaron para almacenar y procesar información, por ejemplo, de inventarios o contabilidad, en una época en la que empezaba a sentirse una mayor necesidad por manejar grandes cantidades de datos de manera exacta y en poco tiempo. 4.1 Solución automatizada de problemas 79 En las décadas de 1930 y 1940 se construyeron en Estados Unidos grandes calculadoras para responder a las enormes necesidades de cálculo del Ejército, principalmente en lo referente a cálculos de balística. En esa época las tablas de tiro de proyectiles se volvieron un instrumento indispensable para maximizar la eficacia de la artillería, ya que permitían ajustar el ángulo de disparo en función de numerosos parámetros, como el tipo de proyectil, la localización del objetivo, la velocidad del viento y la temperatura. Dado que para construir estas tablas se requería calcular miles de trayectorias y cada una requería de muchos cálculos, que eran muy tardados si se realizaban mediante calculadores humanos (tres días por trayectoria por persona), el gobierno de Estados Unidos financió varios proyectos en diferentes universidades para automatizar la construcción de estas tablas. En el MIT, Vannevar Bush construyó, entre 1930 y 1931, una computadora analógica, el analizador diferencial, para resolver sistemas de ecuaciones diferenciales. Una copia de esta máquina, construida en 1934 por la Escuela Moore de Ingeniería Eléctrica de la Universidad de Pensilvania, en colaboración con el MIT, tardaba entre 15 y 30 minutos en calcular una trayectoria, pero se necesitaban entre una y dos horas para recablear la máquina en cada nueva operación. En la Universidad de Harvard, Howard Aiken construyó, entre 1937 y 1944, la Harvard Mark I con fondos de IBM y de la Marina estadounidense. Esta computadora era electromecánica, constaba de 3300 relevadores y su diseño estuvo influido por la máquina analítica de Babbage. Aunque era muy lenta (el analizador diferencial era cinco o seis veces más rápido en el cálculo de una trayectoria), la Mark I se utilizó para resolver problemas de balística y diseño naval. En 1945, Grace Hopper removió de la Mark II el primer “bug” (una polilla) que provocaba que la computadora fallara. En la Escuela Moore de la Universidad de Pensilvania, John William Mauchly y John Presper Eckert construyeron la ENIAC (Electronic Numerical Integrator and Computer). Esta máquina constaba de 17 468 bulbos y miles de cables, consumía 140 kilowatts, pesaba aproximadamente 30 toneladas, medía 2.4 m de altura, 90 cm de ancho y casi 30 m de longitud, y se encontraba en un cuarto de 9 por 15 metros. La ENIAC era en promedio 500 veces más rápida que la Harvard Mark I, ya que no realizaba movimientos mecánicos; en su demostración pública, el 15 de febrero de 1946, calculó en 20 segundos la trayectoria de un proyectil, operación que tardaba 30 minutos en el analizador diferencial. Posteriormente, la ENIAC se utilizó para validar y mejorar el modelo matemático de la explosión de la bomba H. Sin embargo, como en el analizador diferencial, para programar la ENIAC era necesario cambiar la configuración de la máquina, es decir, los usuarios debían conectar f ísicamente los circuitos de la máquina para que ésta ejecutara una nueva secuencia de operaciones. Conscientes de las limitaciones de programación de la ENIAC, sus diseñadores concibieron la idea de almacenar el programa y los datos den- 80 Capítulo 4 Algorítmica y programación MEMORIA UNIDAD CENTRAL DE PROCESAMIENTO UNIDAD DE ENTRADA Unidad de control Registros UNIDAD DE SALIDA Unidad aritmética lógica FIGURA 4.1 Modelo de von Neumann tro de la memoria de la misma computadora. En agosto de 1944, Mauchly y Eckert propusieron la construcción de una nueva máquina denominada EDVAC (Electronic Discrete Variable Automatic Computer) basada en esta idea. John von Neumann documentó y elaboró las ideas de los creadores de la ENIAC sobre el programa almacenado en el “First Draft (of a Report on the EDVAC)”, publicado el 30 de junio de 1945, donde también se proponía el uso de una unidad de control (que organizara el funcionamiento interno de la máquina) y del sistema numérico binario. La estructura de la computadora que se desprende de este documento se conoce popularmente como modelo de von Neumann. Prácticamente todas las computadoras digitales que se han construido desde entonces se basan en esta arquitectura (figura 4.1); sólo ha cambiado la tecnología utilizada para la construcción del hardware: primero bulbos, luego transistores (1956), después circuitos integrados (1964) y fi nalmente microprocesadores (1974). Los circuitos integrados están constituidos, entre otros componentes, por transistores interconectados dentro de un chip de silicio (semiconductor). Gordon Moore, uno de los fundadores de Intel, constató en 1974 que el número de transistores integrados en un mismo chip se duplicaba cada 18 meses. Esta evolución en la miniaturización de los componentes dio origen a la creación de los microprocesadores y condujo a la microelectrónica hacia el campo de la nanotecnología (tecnología a la escala del nanómetro, 109 m). El surgimiento de las computadoras no sólo tiene antecedentes en Estados Unidos, sino también en Europa. En Alemania, Konrad Zuse construyó, en 1941, la primera computadora digital (binaria) de propósito general controlada mediante programa: la Z3. Esta computadora utilizaba relevadores electromagnéticos, sus versiones previas se diseñaron para re- 4.2 Algoritmos 81 solver sistemas de ecuaciones simultáneas. Por otra parte, en Inglaterra se construyó, en 1943, la primera máquina completamente electrónica: Colossus, compuesta por 1800 bulbos en su versión original. Maxwell Newman y sus colegas de Bletchley Park —una vieja casa entre Oxford y Cambridge— diseñaron esta máquina específicamente para descifrar los mensajes secretos de los alemanes durante la Segunda Guerra Mundial. También en Inglaterra se construyeron las primeras computadoras electrónicas con programa almacenado: Manchester Mark 1 (Universidad de Manchester, 1948) y EDSAC (Electronic Delay Storage Automatic Computer, Universidad de Cambridge, 1949). El programa almacenado en una computadora es una serie de instrucciones que le indican qué debe realizar para obtener un resultado. Aunque la palabra computadora hace pensar en cálculos matemáticos, en realidad sólo una pequeña parte de las instrucciones que la computadora es capaz de interpretar y ejecutar son operaciones aritméticas básicas. Las computadoras no son simples máquinas de cálculo, sino más bien máquinas lógicas que procesan información, que organizan, que establecen un orden. Por esta razón, a las computadoras en Francia se les dio el nombre de ordenadores, y a la computación se le conoce como informática, que es el procesamiento automático de información. 4.2 Algoritmos La noción de algoritmo está íntimamente vinculada con la programación de las computadoras, ya que un programa no es más que la especificación de un algoritmo mediante la utilización de las instrucciones que puede ejecutar una computadora. En términos generales, algoritmo se define como una secuencia finita de operaciones básicas que permiten resolver un problema. De manera específica, un problema es un modelo genérico (como la multiplicación de dos números enteros); una instancia es un caso especial de un problema con datos particulares (por ejemplo, 24 18), y un algoritmo resuelve un problema si encuentra la solución para cualquiera de sus instancias. 4.2.1 Ejemplos de algoritmos de multiplicación Para resolver un determinado problema pueden existir diversos algoritmos. A continuación se describen diferentes algoritmos para multiplicar dos números enteros positivos. En el algoritmo de multiplicación larga se multiplica cada dígito del primer número por cada dígito del segundo y se suman los resultados parciales corridos de manera adecuada (figura 4.2a). En la escuela primaria se enseña este algoritmo, pero se modifica de tal manera que no todos los productos parciales se suman hasta el final (figura 4.2b). Para ejecutar este algoritmo las operaciones básicas que se utilizan son la suma de números enteros y la multiplicación de todos los posibles pares 82 Capítulo 4 Algorítmica y programación 24 18 24 18 32 160 40 200 192 24 432 432 a) Multiplicación larga b) Multiplicación tradicional FIGURA 4.2 Algoritmo de multiplicación tradicional de dígitos, razón por la cual se deben memorizar las tablas de multiplicación. En 1617 el escocés John Napier (1550-1617) inventó unos dispositivos, denominados “huesos” por el material que se usó para su construcción (huesos, cuernos y marfil eran los materiales idóneos para obtener un dispositivo de mejor calidad), donde imprimió las tablas para facilitar el algoritmo de multiplicación. Un algoritmo de multiplicación que no requiere el conocimiento de todas las tablas es el de Peasant, que sólo requiere saber sumar y ser capaz de multiplicar por 2 un número y dividir otro entre 2. Este algoritmo, conocido por los antiguos egipcios como mediación y duplicación, se muestra 0 1 2 3 4 5 6 7 8 9 2 4 0 0 2 0 4 0 4 0 8 1 6 0 2 1 8 1 6 2 0 1 0 2 2 1 4 2 4 1 8 3 6 1 2 3 8 FIGURA 4.3 Huesos de Napier 6 4.2 Algoritmos Mediaciones 83 Duplicaciones 18 24 9 48 4 96 2 192 1 384 (+) (+) 24 18 48 9 = 48 (8 + 1) 48 8 + 48 96 4 + 48 192 2 + 48 384 1 + 48 384 + 48 432 FIGURA 4.4 Algoritmo de multiplicación por mediación y duplicación en la figura 4.4. En cada paso del algoritmo se multiplica uno de los números, b, por 2 y se divide el otro, a, entre 2 (descartando cualquier fracción resultante); el algoritmo se termina cuando a es igual a 1 y el resultado es la suma de los valores de b cada vez que el valor de a es impar. Cuando los algoritmos con que se cuenta para resolver un problema son complejos, en ciertas ocasiones puede ser preferible utilizar un algoritmo simple que regrese un resultado aproximado. Por ejemplo, en 1590, Napier descubrió los logaritmos, un artificio que transforma multiplicaciones en sumas y que durante mucho tiempo se usó para realizar cálculos aproximados utilizando tablas impresas o reglas de cálculo. 4.2.2 Complejidad Si se conocen varios algoritmos para resolver un problema, generalmente se debe utilizar el más eficiente. Por esto es necesario conocer la complejidad de los algoritmos, que se mide de acuerdo con la cantidad de recursos (tiempo y/o espacio) que emplean en función del tamaño n del problema. Tradicionalmente, se determina la complejidad temporal de los algoritmos en el peor caso —mayor número de pasos posible en cualquier instancia—, aunque algunas veces se determina la complejidad en el caso promedio: número esperado de pasos de acuerdo con una distribución de probabilidad de las posibles instancias del problema. Por ejemplo, en el caso de una búsqueda en un arreglo ordenado de n elementos, el algoritmo de búsqueda secuencial requiere n comparaciones en el peor caso, y n/2 comparaciones en el caso promedio, mientras que el de búsqueda binaria requiere sólo log2 n comparaciones en el peor caso. La notación big-oh es una medida asintótica que se utiliza para medir el desempeño de los algoritmos en instancias grandes de problemas. Se dice que un algoritmo corre en O(f(n)) si el tiempo requerido por el algoritmo para encontrar la solución en el peor caso es cuando mucho igual a c f(n) para algún número c, y para toda n mayor a algún n0. En la tabla 4.1 se 84 Capítulo 4 Algorítmica y programación TABLA 4.1 Complejidad asintótica de los algoritmos O(f (n)) nombre O(1) constante O(log n) logarítmica O(n) lineal O(n log n) n log n O(nm) polinomial O(2n) o O(n!) exponencial muestran las funciones f(n) frecuentemente encontradas al evaluar la complejidad temporal de un algoritmo. Comúnmente se acepta que un algoritmo es bueno si su complejidad temporal en el peor caso está acotada por una función polinomial. Para expresar esta función en notación big-oh sólo se considera el término dominante, dado que se supone que n es grande; así, 1000n 100n2 0.01n3 es O(n3). En algoritmos con complejidad exponencial, la función f(n) crece tan rápido que no puede acotarse por medio de una función polinomial (tabla 4.2). A primera vista puede parecer que, dado que las computadoras son cada vez más rápidas, la complejidad exponencial de un algoritmo no importa mucho, ya que el tiempo real consumido en la computadora será insignificante en cualquier caso. Sin embargo, en la realidad esto no es verdad. Por ejemplo, si cada paso de un algoritmo se realiza en 1 nanosegundo (109 s), un algoritmo que requiera n! pasos se ejecutará en 3.6 ms si n es igual a 10, pero tardará ¡más de 77 años! si n es igual a 20. Desafortunadamente existen problemas para los que no se conocen algoritmos que los resuelvan en tiempo polinomial, como muchos problemas clásicos de optimización combinatoria. En este tipo de problemas existe un número finito de soluciones factibles que satisfacen ciertas restricciones, y TABLA 4.2 Crecimiento explosivo de la complejidad de algoritmos exponenciales f(n) n ⴝ 10 n ⴝ 100 n ⴝ 1000 n 10 102 103 n2 102 104 106 n3 103 106 n 3 2 n! 109 10 30 1.27 10 1.07 10301 3.6 106 9.33 10157 4.02 102567 4.2 Algoritmos 85 se busca aquella que minimiza (o maximiza) una función objetivo. Por ejemplo, en el caso del problema de un agente viajero, el cual necesita encontrar la ruta más corta que debe seguir para visitar exactamente una vez cada ciudad de una lista dada y regresar al punto de partida, todas las soluciones factibles de este problema son permutaciones de la lista en las que aparece una sola vez cada ciudad, y la solución óptima es aquella permutación que define el circuito de distancia mínima. El único algoritmo que encuentra la solución óptima para todas las instancias de estos problemas se basa en la enumeración exhaustiva de todas las soluciones factibles y es, por lo tanto, de tiempo exponencial. Los problemas con algoritmos de tiempo exponencial no tienen solución práctica exacta, ya que el tiempo es limitado. Por esta razón, para resolver instancias particulares de estos problemas se utilizan algoritmos heurísticos eficientes que obtienen una solución óptima o cercana a ella para muchas de las instancias, pero no todas. Estos algoritmos se denominan heurísticos, ya que frecuentemente se fundamentan en reglas empíricas basadas en intuición o sentido común y en conocimiento específico de un problema particular. Para el caso del problema del agente viajero, las figuras 4.5 y 4.6 ilustran el funcionamiento de dos heurísticas. En ambos casos se supone que la distancia entre las ciudades es la que se muestra en la matriz de la figura 4.5b. La primera heurística se conoce como “visita del vecino más cercano” y consiste en elegir siempre, como siguiente escala, la ciudad que quede más cerca de la ciudad actual y que no haya sido aún visitada. En la figura 4.5, si se parte de A primero se visita C (que es la más cercana a A), luego D (que es la más cercana a C), después D, E y B, para finalmente cerrar el circuito regresando a A. La segunda heurística: “inserción del vecino más lejano”, proporciona generalmente mejores resultados; inicia seleccionando las dos ciudades más alejadas entre sí y formando un primer circuito (triángulo) con la ciudad cuya menor distancia a cualquiera de ellas es máxima. Repetidamente, y hasta terminar con todas las ciudades, se incorpora al circuito la ciudad cuya distancia mínima a cualquier otra ciudad que ya se encuentra en el circuito sea máxima; esta ciudad se inserta en el circuito en el lugar que resulte en un menor incremento en su longitud total: suma de las longitudes de las dos aristas que se insertan en el circuito menos la longitud de la que se remueve. En la figura 4.6 se empieza con B y E, ya que son las ciudades más alejadas entre sí. En seguida se forma el primer circuito con C, ya que su distancia mínima a los dos nodos iniciales (85 a B) es mayor que las distancias mínimas de A (80 a B) y D (45 a E). La longitud de este primer circuito es de 235 unidades. Posteriormente se introduce A en el circuito, ya que su distancia mínima a un nodo del circuito actual (65 a C) es mayor que la de D (45 a E); se inserta A entre B y E para aumentar en sólo 15 la longitud del circuito; si se insertara entre B y C aumentaría en 60, y entre C y E aumentaría en 70. Finalmente se incorpora D al circuito. Esta heurística 86 Capítulo 4 E A D C Algorítmica y programación A B C D E A 0 80 65 85 95 B 80 0 85 135 160 C 65 85 0 50 90 D 85 135 50 0 45 E 95 160 90 45 0 B a) Topología (ciudades) b) Matriz de distancias entre las ciudades E E A A D D C C B B c) Primer paso d) Segundo paso E E A A D D C C B B e) Tercer paso f) Cuarto paso E A D C B FIGURA 4.5 Heurística de visita del vecino más cercano 87 4.2 Algoritmos E E E A A A D D D C C C B B B a) Topología (ciudades) b) Primer paso c) Segundo paso E E A A D D C C B B d) Tercer paso e) Cuarto paso FIGURA 4.6 Heurística de inserción del vecino más lejano trata de construir la forma aproximada del circuito final desde los primeros pasos del algoritmo. 4.2.3 Técnicas generales para algoritmos de tiempo polinomial El algoritmo de “visita del vecino más cercano” es un ejemplo de una heurística miope o voraz (greedy), en la cual se toma una serie de decisiones y en cada una de ellas se selecciona la acción que parece mejor en ese momento. En el caso del problema del agente viajero, una heurística miope no da generalmente buenos resultados, pero en otros casos un algoritmo voraz sí resuelve el problema; por ejemplo, el algoritmo de Kruskal (figura 4.7), que construye un árbol mínimo de recubrimiento sobre una gráfica. Dada una gráfica formada por nodos y aristas, el algoritmo de Kruskal selecciona un subconjunto de las aristas de la gráfica original para construir un árbol (subgráfica sin circuitos) que contenga todos los nodos y cuya longitud total sea mínima. Este algoritmo selecciona en cada paso la arista con menor longitud que no construya un circuito, y se detiene cuando se han incorporado todos los nodos al árbol. En la figura 4.7 se inicia con la arista E-D (longitud 45) y a continuación se seleccionan las aristas C-D (50), A-C (65) y A-B (80). Además de la técnica voraz, otra forma genérica de atacar un problema en tiempo polinomial es la de “divide y vencerás”. La idea general de esta 88 Capítulo 4 Algorítmica y programación E E E A A A D D D C C C B B B b) Primer paso a) Topología (ciudades) c) Segundo paso E E A A D D C C B B d) Tercer paso e) Cuarto paso FIGURA 4.7 Algoritmo de Kruskal: árbol mínimo de recubrimiento técnica es dividir el problema en subproblemas, resolverlos y combinar sus soluciones en una solución global. Como ejemplo del uso de esta técnica, en la figura 4.8 se ilustra el problema de determinar la ruta más corta entre un nodo inicial (A) y uno de dos nodos finales (H o I) mediante programación dinámica. En este contexto el término programación se refiere a la planeación de actividades (determinación de aquellas que producen la mejor solución), y el término dinámica hace alusión a que en sus primeras aplicaciones la variable tiempo indicaba el paso de una etapa a otra (secuencia de decisiones en el tiempo). El algoritmo se desarrolla en etapas: inicia en los nodos que se encuentran directamente conectados a los nodos finales y se dirige hacia el nodo inicial, se basa en el principio de “optimalidad” de Richard Bellman, que establece que si un nodo particular se encuentra en la ruta óptima buscada, entonces el camino más corto entre él y el destino también se encuentra en la ruta óptima. En la primera etapa se determina que la ruta más corta entre E y uno de los destinos es la arista E-H, con una distancia de 3 (unidades); para F, es la arista F-I, con una distancia de 5, y para G, es la arista G-H, con una distancia de 8. En la segunda etapa se utilizan estos resultados para determinar que la ruta más corta entre B y uno de los destinos es la trayectoria B-E-H, con una distancia de 15; para C es la trayectoria C-E-H, con una distancia de 9, y para D es la trayectoria D-F-I, con una distancia de 17. Finalmente, en la tercera etapa resulta que el camino más corto entre A y uno de los destinos es la trayectoria A-C-E-H. 89 4.2 Algoritmos 12 B 14 A 9 6 2 5 C 10 4 1 12 D 11 E 3 E 3 H 9 I H (3) F-I (5) G-H (8) F 6 F E-H 6 H 5 I 5 G 8 G I 8 H 10 I 10 b) Primera etapa a) Topología y distancias B 12 14 E (+3) F (+5) B-E-H 6 10 4 E (+3) F (+5) G (+8) C-E-H 12 11 F (+5) G (+8) D-F-I (15) C (9) (1 paso antes del destino) A 2 B (+15) 5 C (+9 ) 1 D (+17) d) Tercera etapa A-C-E-H (14) (3 pasos antes del destino) D c) Segunda etapa (17) (2 pasos antes del destino) FIGURA 4.8 Programación dinámica: ruta más corta 4.2.4 Computabilidad En la sección anterior se introdujo la noción de complejidad de los algoritmos, es decir, la eficiencia con la cual pueden resolverse diferentes problemas. Ahora se verá que existen problemas que no pueden resolverse; por ejemplo, la demostración de teoremas o la prueba de la corrección de programas. La teoría de la no resolubilidad tiene que ver con la existencia o inexistencia de algoritmos para resolver problemas que tengan una infinidad de instancias. Antes del inicio de la Segunda Guerra Mundial, Alan Turing creó una abstracción lógica que se conoce ahora como máquina de Turing y que capta la estructura teórica de los algoritmos que pueden resolverse en una computadora: cualquier algoritmo que pueda diseñarse para resolver un problema se puede programar en una máquina de Turing; cualquier problema que no pueda resolverse mediante una máquina de Turing no tiene solución algorítmica. Una máquina de Turing consta de un autómata que puede estar en un número finito de estados, una cantidad ilimitada de cinta dividida en celdas y un dispositivo de lectura/escritura (figura 4.9a). El autómata lee un símbolo de la cinta y, en función del estado en el que se encuentra y del símbolo leído, escribe un símbolo en la cinta, desplaza el dispositivo de lectura/escritura y cambia de estado. En la figura 4.9b se muestra la tabla de transi- 90 Capítulo 4 Algorítmica y programación Estado/evento 0 1 1 (inicial) parar 0, I, 2 2 1, I, 3 1, I, 2 3 1, D, 4 1, I, 3 4 0, D, 5 1, D, 4 5 parar 0, I, 2 Autómata Dispositivo de lectura/escritura 1 0 1 1 0 Cinta 0 a) Componentes b) Tabla de transiciones 0 0 0 0 0 1 1 0 0 0 0 c) Estado inicial 1 1 1 1 0 0 0 d) Estado final FIGURA 4.9 Máquina de Turing ciones del autómata de una máquina de Turing que duplica el número de unos que encuentra inicialmente en la cinta; se muestran también los estados inicial (figura 4.9c) y final (figura 4.9d) de la cinta para una instancia particular del problema. El autómata se encuentra inicialmente en el estado 1. La tabla de transición indica qué acciones se toman en función del estado y del símbolo en la cinta. Por ejemplo, si el autómata está en el estado 3 y en la cinta lee un 0, entonces escribe un 1 en la cinta, desplaza el dispositivo de lectura/escritura una celda a la derecha (D) y pasa al estado 4; si en el estado 3 el autómata lee un 1, entonces desplaza el dispositivo de lectura/escritura una celda a la izquierda (I) y pasa al estado 4. La máquina de Turing terminará el algoritmo (se detendrá) cuando el autómata se encuentre en el estado 1 o en el estado 5 y lea un 0 de la cinta. Es importante mencionar que un problema que no tiene solución algorítmica, es decir, que no es computable, es determinar si una máquina de Turing arbitraria se detendrá al llegar a su estado final para cualquier estado inicial de la cinta. 4.2.5 Problemas de rango y precisión Las computadoras actuales trabajan en base 2 por simplicidad. Al procesar únicamente dígitos binarios (bits, binary digits), se pueden utilizar componentes f ísicos sencillos, como los transistores que, funcionando como interruptores que dejan pasar o no la corriente eléctrica, pueden representar los dígitos 0 y 1. Además, con componentes electrónicos que sólo pueden estar en dos estados se logra una mayor inmunidad al ruido. Cuando se trabaja en base 2, los algoritmos también son sencillos; por ejemplo, las tablas de multiplicar son mucho más simples en base 2 que en base 10. 91 4.2 Algoritmos A A B C S 0 0 0 0 0 1 0 1 1 0 0 1 1 1 1 0 S B C a) Circuito lógico electrónico a) Tabla de verdad FIGURA 4.10 Sumador binario de dos bits Todo lo que nos interesa calcular puede hacerse con funciones lógicas (booleanas) y éstas pueden implementarse con circuitos electrónicos de dos estados; como ejemplo, la figura 4.10 muestra un circuito lógico que implementa la operación aritmética de suma de dos bits y su tabla de verdad. El número finito de bits que se utilizan para representar los números, enteros y reales, en base 2 es una fuente de errores que debe considerarse al resolver ciertos problemas numéricos. Si se utilizaran 8 bits para representar los números enteros no negativos, sólo podrían tenerse 28 números diferentes, y el intervalo de valores permitidos sería del 0 al 255. Para aumentar el intervalo de enteros posibles, los lenguajes modernos de programación utilizan enteros (int) de 32 bits y enteros largos (long) de 64 bits. Sin embargo, el problema persiste, ya que el intervalo sigue siendo finito (aunque mayor). Para poder representar también números negativos, la mitad del intervalo se asigna a estos números y la otra mitad a los positivos. En la codificación de números negativos en complemento a 2 se niegan (invierten) todos los bits de un número y se suma 1 al resultado para obtener el correspondiente valor negativo. En esta codificación, normalmente utilizada en las computadoras, el bit más significativo indica el signo del número: negativo si es 1 y positivo si es 0. El intervalo de valores de un entero de n bits en complemento a 2 va de 2n 1 a 2n 1 1. Para representar números reales, en lugar de asignar un número fijo de bits para la parte entera y otro número fijo de bits para la parte fraccionaria, dejando el punto (imaginario) en una posición fija, se utiliza una notación llamada de punto flotante. En esta codificación, un número real se representa como (1) s 0.f 2e. Se utiliza 1 bit para el signo (s), un número fijo de bits para la fracción ( f ) y otro número fijo de bits para el exponente (e). La fracción generalmente debe estar normalizada, es decir, debe ser un número mayor o igual a 1 y menor a 2. Para no desperdiciar un bit que se sabe siempre es 1, las computadoras no almacenan este bit, sino que lo suponen implícito, por lo que el número representado es en realidad (1) s (1.f ) 2e. 92 Capítulo 4 Algorítmica y programación La norma IEEE 754, que data de 1985, establece que para un número de precisión simple (float) se asigna 1 bit para el signo, 23 bits para la fracción y 8 bits para el exponente, que se representa en exceso 127; mientras que para un número de doble precisión (double), se asigna 1 bit para el signo, 52 bits para la fracción y 11 bits para el exponente en exceso 1023. La norma especifica que un número de punto flotante de precisión simple representa el valor (1) s (1.f ) 2e 127, si 1 < e < 255. Esto significa que el mayor número float representable es (1 1 223) 2254 127, que es aproximadamente 3.4 1038. Si e es igual a 255 y f es diferente de 0, se tiene algo que no es un número real (Not A Number, NaN), como la raíz cuadrada de un número negativo. Por otra parte, si e es igual a 255 y f es igual a 0, se tiene la representación de (1) s infinito. Los números muy pequeños (con e igual a 0) no se normalizan y representan (1) s (0.f ) 2126, por lo que el menor número float que puede tenerse es 223 2126, que es aproximadamente igual a 1.4 1045. La representación de los números reales en una computadora causa que, en algunos problemas numéricos, los resultados obtenidos después de realizar diferentes cálculos en punto flotante no sean exactos debido a la precisión limitada de los números, determinada por el número de bits destinados a la fracción f; un ejemplo de este tipo de errores se muestra en la figura 4.11. Las dos funciones, suma1 y suma2, realizan el mismo cálculo: la suma de un número grande más n veces un número chico. Dados los datos de entrada: grande 3.4 1012, chico 1.0 y n 106, el resultado grande= 3.4 1012 float suma1 (float grande, float chico, long n ) { chico= 1.0 float resultado; n= 10 6 resultado = grande; for ( long i= 0; i< n; i++ ) a) Datos resultado = resultado + chico; return resultado; } b) Función suma1 float suma2 (float grande, float chico, long n ) { suma1: 3.40000008 1012 suma2: 3.40000113 1012 float resultado; resultado = 0; c) Resultados for ( long i= 0; i< n; i ++ ) resultado = resultado + chico; resultado = resultado + grande; return resultado; } c) Función suma2 FIGURA 4.11 Problema de precisión en aritmética de punto flotante 4.3 Programación 93 de ambas funciones debería ser: 3.400001 1012; sin embargo, los resultados de estas funciones escritas en Java no son los esperados, ya que: 1. el número 3.4 1012 no tiene una representación exacta como float en la computadora, y 2. en suma1, cada vez que en el ciclo se suma el número chico al grande (3.4 1012 1.0), éste se pierde por problemas de precisión y el resultado es el grande; mientras que en suma2 el número grande se agrega a la suma de n veces el número chico (3.4 1012 1.0 106), y ahora sí puede realizarse la suma, aunque con problemas de precisión. Si en lugar de float se usa double en este ejemplo, el problema se elimina. Sin embargo, dado que la precisión de double también es limitada, ésta no es una solución universal. El lenguaje Java cuenta con la clase BigDecimal, que soporta directamente la aritmética de números decimales. Con esta clase pueden representarse exactamente fracciones decimales y números en un intervalo y con una precisión muy grandes; además, puede especificarse el número de dígitos significativos y el modo de redondeo deseados. En contraste, es necesario utilizar métodos especiales que implementa la aritmética decimal en lugar de los operadores comunes, y el tiempo de ejecución generalmente es mayor que si se emplean los tipos binarios float o double. 4.3 Programación Así como se denomina hardware a los componentes f ísicos que constituyen una computadora, se da el nombre de software a los programas que flexibilizan y hacen accesible el uso de las computadoras. De manera general, podemos decir que un programa es un conjunto de instrucciones que implementa un algoritmo y que causa que una computadora ejecute una función particular. En los inicios de la computación el software era el elemento menos importante y menos costoso de un sistema basado en computadora; sin embargo, actualmente el software por lo general es el elemento más caro de los sistemas de información. 4.3.1 Tipos de software Existen dos categorías principales en las que podemos dividir al software: de sistema y de aplicación (figura 4.12). El software de sistema lo constituyen los programas que se encargan del control y administración de los recursos de cómputo, y los que permiten la interacción entre los usuarios y los sistemas de aplicación o el hardware. Ejemplos de este tipo de software son los traductores (compiladores, intérpretes y ensambladores) y los sistemas operativos, como Windows, XP o 2003 y varias versiones de Unix, como AIX de IBM, o Solaris de Sun. Por otra parte, el software de aplicación está compuesto por los programas que le permiten a una computadora realizar actividades específicas de procesamiento de información y ofrecer una funcionalidad a los usuarios 94 Capítulo 4 Algorítmica y programación are de aplicación ftw So re de sistem ftwa a So wa Hard re FIGURA 4.12 Tipos de software finales. Ejemplos de este tipo de software son el aplicativo, el estándar y el específico. El software aplicativo no está ligado a una función particular del negocio, sino que soporta procesos en general; por ejemplo procesos de oficina (Word, Excel o PowerPoint), de administración de bases de datos (DB2, Access), de investigación de operaciones (Lindo) o de ingeniería asistida por computadora (CATIA). El software estándar satisface de manera genérica una función específica de las empresas, como sistemas de nómina o de finanzas, y se puede personalizar para cada empresa individual. La integración de diversos módulos funcionales estándar constituye un software empresarial que, en general, administra las operaciones vitales internas de la empresa (ERP), la cadena de suministro (SCM) y las relaciones con los clientes (CRM). Por último, para satisfacer necesidades particulares de una sola empresa se desarrolla software específico a la medida. Algo que puede parecer extraño hoy en día es que para las primeras computadoras personales no existía prácticamente software de aplicación. No fue sino hasta 1978, cuatro años después del surgimiento de las microcomputadoras, cuando empezó a aparecer software de aplicación comercial. El éxito de la hoja de cálculo VisiCalc, diseñada por un estudiante de la Universidad de Harvard para la Apple II en 1979, estimuló el desarrollo de otras aplicaciones, principalmente de procesadores de palabras. Se estima que más de la cuarta parte de las computadoras Apple vendidas en 1979 fueron compradas con el propósito de utilizar VisiCalc. 4.3.2 Lenguajes La programación ha evolucionado continuamente desde los días de la configuración cableada de la ENIAC hasta el presente. La escritura del software en las primeras computadoras se realizaba en lenguaje de máquina, mediante ceros y unos que codifican directamente las instrucciones que es capaz de ejecutar el procesador. La programación en lenguaje de máquina es dif ícil, y el código generado es complicado de leer (figura 4.13a). Para facilitar la programación se desarrolló el lenguaje ensamblador, que utiliza mnemónicos que permiten visualizar la función de las instrucciones de la 4.3 Programación 00111010 01001100 11001000 01000111 00111010 01001100 11001010 10000000 00110010 01001100 11001100 a) Lenguaje de máquina 95 LDA DIR i MOV B,A LDA DIR j ADD B STA DIR k b) Lenguaje ensamblador byte i,j,k; k=i+j; c) Lenguaje de alto nivel FIGURA 4.13 Lenguajes de máquina y ensamblador máquina (figura 4.13b). Este lenguaje, como el de máquina, manipula directamente las localidades de memoria y los registros del procesador, transfiere datos entre ellos y realiza operaciones aritméticas y lógicas simples. La figura 4.13 muestra el código de máquina y ensamblador, para el microprocesador 8080, de la suma de dos números de 1 byte almacenados en memoria. Ambos lenguajes son dependientes de la arquitectura interna del procesador: conjunto de instrucciones y número, nombre y tamaño de los registros internos, e incluyen también saltos incondicionales y condicionales para cambiar el flujo del programa. Los lenguajes de alto nivel (figura 4.13c) surgieron para facilitar aún más la programación y hacerla independiente de la máquina, ofreciendo un mayor grado de abstracción al programador. Estos lenguajes reconstruyen la máquina en la cual están implantados para hacerla más adecuada a la programación. Un compilador lee un programa escrito en un lenguaje de alto nivel (código fuente) y lo traduce a un programa equivalente en código objeto. El código objeto puede ser código de máquina, ensamblador, ICL (Intermediate Code Language) en los lenguajes .NET o byte codes de Java. Si el código objeto está en lenguaje ensamblador, se necesitará un programa ensamblador para producir el código de máquina; mientras que si se trata de byte codes o ICL, se utilizará un intérprete que traduzca cada instrucción a código de máquina al momento de ejecución cada vez que la encuentra. Es interesante mencionar que en abril de 1975, Bill Gates y Paul Allen fundaron Microsoft para comercializar un intérprete de BASIC (Beginner’s Allpurpose Symbolic Instruction Code, 1964) para la microcomputadora Altair 8800 de la empresa MITS. 4.3.3 Paradigmas Los lenguajes de programación de alto nivel proporcionan un modelo abstracto de la computadora que permite concentrarse en el diseño de los algoritmos y no en la arquitectura interna de los procesadores. Básicamente se han desarrollado cuatro paradigmas de programación (y lenguajes de 96 Capítulo 4 Algorítmica y programación propósito general que los soportan) que ofrecen diferentes modelos para visualizar qué es un problema y cómo representar el proceso de su solución por medio de una computadora. De acuerdo con el paradigma seleccionado, el programador modifica su conceptualización de los problemas a resolver, de los resultados esperados y de los posibles algoritmos. Procedural: los primeros dos paradigmas pertenecen al grupo de lenguajes imperativos que parten conceptualmente de las instrucciones básicas y de la organización de la computadora, y buscan acercarse al dominio de los problemas. En estos lenguajes se ordena cómo realizar una tarea mediante una secuencia de instrucciones, que especifica a detalle cómo resolver un problema. En el paradigma de programación procedural se visualiza la solución de un problema; un algoritmo con base en una jerarquía de procedimientos que manipulan estructuras de datos y se comunican con el medio ambiente externo. Cada procedimiento es responsable de llevar a cabo una tarea y se especifica mediante una secuencia de procedimientos de menor nivel, donde el nivel más bajo son las instrucciones básicas proporcionadas por el lenguaje. En la programación procedural, un procedimiento es una nueva instrucción que puede formar parte de un procedimiento de mayor nivel; un programa es una secuencia de instrucciones (procedimientos). El primer lenguaje de alto nivel que se implementó fue FORTRAN (FORmula TRANslation), desarrollado entre 1954 y 1957 por John Backus para utilizarse en aplicaciones científicas (numéricas). Poco tiempo después, en 1959, se creó COBOL (COmmon Business Oriented Language), para programar aplicaciones de gestión. Un tercer lenguaje históricamente importante es ALGOL (ALGOrithmic Language, 1960) que aunque no alcanzó el nivel de popularidad comercial de los dos anteriores, puede considerarse como uno de los más importantes de su era, en términos de la influencia que tuvieron sus estructuras sintácticas sobre el diseño de lenguajes posteriores. Entre 1968 y 1971, Niklaus Wirth diseñó Pascal como un lenguaje promotor de la enseñanza de la programación estructurada en las universidades. En esta disciplina de programación se organizan los programas utilizando sólo construcciones algorítmicas selectivas y repetitivas estructuradas (como if-then-else y while) que manipulan estructuras de datos y evitan al máximo los saltos (instrucción GO TO) que oscurecen el entendimiento del flujo del programa. En 1972, Ken Thompson y Dennis Ritchie, de los Laboratorios Bell, crearon el lenguaje C, que fue muy popular durante los últimos años del siglo pasado debido a su potencia y eficiencia, y que daría origen posteriormente a varios lenguajes orientados a objetos muy conocidos. Orientado a objetos: en el paradigma de programación orientado a objetos, el procedimiento es desplazado por el objeto como centro de los programas. La organización de éstos gira ahora alrededor de los objetos, que 4.3 Programación 97 encapsulan estructuras de datos junto con los procedimientos (métodos) que los manipulan. Un programa está poblado por objetos independientes que modelan entidades del mundo real, cada uno responsabilizándose por sí mismo y comunicándose con otros por medio de mensajes, pidiéndose unos a otros que efectúen tareas o que informen sobre su estado para cooperar a lograr un fin común. La unidad básica de operación sigue siendo la instrucción imperativa, y la ejecución de un programa una secuencia de acciones. Sin embargo, en este paradigma las acciones son los métodos de los objetos que responden al paso de mensajes de acuerdo con la acción más apropiada determinada por su estado. Los objetos son en realidad instancias activas de clases que abstraen las características de objetos similares: estado, determinado por sus tipos de datos, y comportamiento, especificado por sus métodos. Por ejemplo, la clase Círculo puede contener variables de estado que representan su radio y su color, y métodos que permiten consultar o modificar el valor de las variables o calcular el valor de su superficie; diferentes objetos de la clase Círculo tendrán valores distintos (o iguales) de sus variables que podrán modificarse independientemente unos de otros al ejecutarse un programa. La programación orientada a objetos explota una estructura jerárquica de clases mediante la herencia de datos y métodos que permite reutilizar el código ya escrito (y probado) para crear nuevas clases. Por ejemplo, un Círculo puede ser una subclase de la clase Figura Geométrica que especifica que cualquiera de sus subclases heredará, sin necesidad de definirlos, una variable color y los métodos para leer y escribir su valor; sin embargo, cada subclase deberá definir métodos especiales para calcular su superficie a partir del valor de sus variables particulares: radio, lado, base o altura. Además de la herencia, puede utilizarse el mecanismo de composición para construir clases complejas a partir de clases simples. Por ejemplo, una Interfaz Gráfica podría estar constituida por un objeto de la clase Ventana, uno de la clase Menú y varias instancias de las clases Elemento Menú, Lista y Botón. Los conceptos de objetos, clases y herencia fueron introducidos en el ámbito de la programación por el lenguaje Simula, creado entre 1962 y 1967 por Ole-Johan Dahl y Kristen Nygaard, del Centro de Computación de Noruega. Originalmente, Simula fue diseñado como un lenguaje para la simulación de eventos discretos, pero posteriormente se implementó como un lenguaje de propósito general (Simula 67). Con el paso del tiempo se desarrollaron tres lenguajes muy importantes que aprovecharon la popularidad de C y lo extendieron con los conceptos de la programación orientada a objetos: C, Java y C#. El lenguaje C fue diseñado por Bjarne Stroustrup, de los Laboratorios Bell, entre 1983 y 1985. Java fue creado por un equipo de programadores de Sun Microsystems liderado por James Gosling, y fue presentado públicamente en 1995. Finalmente, C# fue propuesto a la comunidad de programadores por Microsoft en el año 2000. 98 Capítulo 4 Algorítmica y programación Funcional: los siguientes dos paradigmas pertenecen al grupo de lenguajes declarativos en los que el programador se preocupa más por la especificación del problema que por su solución. En el paradigma funcional, un programa se conceptualiza como un conjunto de funciones interrelacionadas. El papel de la función es central y alrededor de ella gira la especificación de los programas. Idealmente el programador no especifica cómo calcular un resultado, sino que declara las definiciones de las funciones y concibe la actividad de desarrollo de software en términos de la forma en que pueden combinarse estas funciones. Esta propuesta promueve el anidamiento y la recursividad de funciones a partir de un conjunto poderoso de funciones primitivas. LISP (List Processing) es el lenguaje más conocido del paradigma funcional. Fue diseñado por John McCarthy, del MIT, poco tiempo después del surgimiento de FORTRAN, y ya en 1960 se contaba con la primera implementación experimental sobre una IBM 704. La estructura sintáctica del lenguaje es muy simple: una función está representada por una lista de elementos encerrados entre paréntesis, en la que los operadores se escriben en notación prefija. LISP es un lenguaje diseñado para procesar símbolos más que números, y es muy bueno para la formulación de algoritmos recursivos que manipulan estructuras de datos dinámicas. Las instrucciones básicas definidas como parte del lenguaje incluyen funciones poderosas de manipulación de listas. En la figura 4.14 se muestran dos ejemplos de programas en LISP que emplean recursión. El primero declara una función que calcula el factorial de un número n. La declaración de la función sigue la definición matemática del factorial. Se define la función (defun) factorial que recibe un parámetro n, como: si n es igual a 0, el resultado es 1; si no, el resultado es el valor de n multiplicado por el factorial de n menos 1. En el segundo ejemplo, la función suma recibe como parámetro una lista x y calcula la suma de sus elementos: si la lista está vacía, regresa 0; si la lista sólo tiene un elemento (atom), regresa el valor de este elemento; en cualquier otro caso, regresa a (defun factorial (n) ( (= n 0) 1) ( * n (factorial (– n 1) ) ) ) a) Factorial de n (defun suma (x) ( (eql x nil) 0) ( (atom x) x) ( + (car x) (suma (cdr x) ) ) ) b) Suma de números de una lista x FIGURA 4.14 Ejemplos de programas en LISP 4.3 Programación 99 la suma del primer elemento (car x) más el valor de la suma del resto de la lista (cdr x). LISP parte del cálculo lambda, desarrollado por Alonzo Church, como una notación para representar funciones, y ve hacia abajo la forma de apoyarse en la computadora. El cálculo lambda es equivalente a las máquinas de Turing, en el sentido que todo lo que puede ser calculado por una computadora puede expresarse en el cálculo lambda. Lógico: en el paradigma lógico la programación se conceptualiza como un proceso de deducción lógica aplicado a la solución de problemas. En este paradigma, un programa es un conjunto de hechos y reglas que especifican una relación lógica entre los elementos, representados mediante símbolos, de algún universo de discurso. El programador describe de manera precisa el problema, en lugar de indicar cómo resolverlo. La ejecución de un programa requiere de una máquina abstracta capaz de contestar una pregunta (consulta) basada en un proceso de inferencia sobre el conjunto de hechos y reglas vistos como axiomas en un sistema lógico. La máquina abstracta parte de un enunciado lógico, y busca hacia atrás axiomas cuya aplicación demuestre el enunciado en una prueba constructiva, que finaliza con los hechos que responden a la pregunta original. La distinción entre las perspectivas declarativa e imperativa es tajante en la programación lógica. El lenguaje Prolog (Programmation en Logique), creado en 1972 por Alain Colmerauer y Philipe Roussel de la Universidad de Aix-Marseille en Francia, es el representante clásico de este paradigma. La figura 4.15 muestra un ejemplo de programa en Prolog. El conocimiento sobre el problema se declara en los hechos y en las reglas. Cada hecho representa un conocimiento específico y declara una relación formal que existe entre dos lenguajes de programación; por ejemplo, liga(fortran, algol) especifica que fortran influyó en el diseño de algol. Las reglas representan un conocimienliga(fortran, algol). liga(algol, simula). liga(algol, pascal). liga(algol, cpl). liga(cpl, bcpl). liga(bcpl, c). liga(c, cmasmas). liga(simula, cmasmas). liga(cmasmas, java). liga(java, csharp). ruta(X, Y) :- liga(X, Y). ruta(X, Y) :- liga(X, Z), ruta(Z, Y). ?- liga(c, cmasmas). Yes. ?- liga(c, java). No. ?- liga(c, L), liga(L, java). cmasmas Yes. ?- ruta(fortran, java). Yes. ?-liga(X, cmasmas). c Yes. simula Yes. b) Reglas c) Consultas a) Hechos FIGURA 4.15 Ejemplo de un programa en Prolog 100 Capítulo 4 Algorítmica y programación to general y en este caso declaran que el lenguaje X influyó en el diseño del lenguaje Y, ruta(X, Y); si existe una liga directa entre ambos, liga(X, Y); o si existe un lenguaje Z tal que existe una liga directa entre X y Z, liga(X, Z); y Z influyó en el diseño de Y, ruta(Z, Y). Las consultas permiten interrogar la base de conocimientos para, por ejemplo, determinar que fortran influyó en el diseño de java. 4.4 Ingeniería de software A finales de la década de 1960, el desarrollo de software cada vez más grande y más complejo condujo a fracasos en muchos proyectos: cancelación, tiempo de entrega mayor al estimado, costo final excesivo, funcionalidad errónea y/o mala calidad del producto. Para manejar la creciente complejidad del software y aumentar la probabilidad de éxito de los proyectos, surgió una nueva disciplina: la ingeniería de software, que puede verse como la aplicación sistemática del conocimiento científico al desarrollo de software. Para desarrollar de manera sistemática software escalable, de alta calidad y a bajo costo, se necesita mucho más que uno o varios programadores ingeniosos y creativos. La industria de software debe utilizar procesos ingenieriles para producir sistemas que realicen una función para un negocio; para analizar requerimientos complejos, difusos y cambiantes de los usuarios; para establecer y administrar el riesgo del proyecto; para sistematizar el proceso de localización de defectos, y para organizar y administrar equipos de trabajo. La ingeniería de software se enfoca principalmente hacia estos procesos con la hipótesis de que la calidad de los productos de software está principalmente influida por los procesos con los que se desarrolla. En un proyecto para generar un producto de software se sigue un proceso a base de programas y documentación. El proceso especifica un conjunto de actividades abstractas que deben realizarse en un orden determinado en cualquier proyecto, cada proyecto las implementa de manera específica. El proceso de software incluye todos aquellos procesos relacionados con los aspectos de ingeniería y de administración del desarrollo de software. Dentro de los procesos de ingeniería se encuentran los procesos Proceso de software Proyecto 1 ... Proyecto i ... Proyecto n ... ... Producto1 Producto j Productom FIGURA 4.16 Procesos, proyectos y productos 4.4 Ingeniería de software 101 de desarrollo, de administración de proyectos (planeación, monitoreo y control, análisis de terminación) y de administración de la configuración del software (control de cambios). El proceso de administración del proceso, por su parte, se encarga de la mejora continua de todos los procesos con base en la evaluación (cuantitativa) de la eficiencia y eficacia obtenidas en los proyectos realizados. El proceso de desarrollo de software especifica actividades directamente relacionadas con la producción del mismo y es, por tanto, un elemento central de este proceso. Las actividades generales que se especifican son: el análisis, la especificación y validación de requerimientos, para entender y especificar cuál es el problema; el diseño de la solución, de alto nivel y detallado, que describe cómo debe resolverse el problema; la codificación de la solución, simple y clara, en un lenguaje de programación, y las pruebas, unitarias y de integración, para detectar defectos en el producto de software. Para realizar estas actividades existen diferentes metodologías que, en función de las características del problema a resolver, son comúnmente utilizadas: cascada (las actividades se realizan en orden lineal), prototipo (se construye una primera versión preliminar informal en la fase de análisis de requerimientos), iterativa incremental (el desarrollo se realiza por incrementos de funcionalidad) y espiral (las actividades se realizan en varios ciclos, en cada uno de los cuales puede usarse un modelo diferente, según los riesgos identificados). La programación extrema es una metodología ligera, iterativa incremental, creada para desarrollar software en equipos pequeños y medianos que trabajan en proyectos con requerimientos difusos o cambiantes; se distingue de las anteriores en que considera a la codificación como su actividad principal y lleva al extremo un conjunto de prácticas simples. Mediante esta metodología se libera rápidamente a producción un sistema sencillo y, de igual manera, se liberan continuamente nuevas versiones en tiempo muy corto; se determina rápidamente el alcance de la siguiente versión, combinando prioridades del negocio con estimaciones técnicas. De las cuatro variables de un proyecto: costo, tiempo, calidad y alcance, la programación extrema especifica que el cliente del producto sólo puede escoger tres, y el desarrollador estima, entonces, la cuarta. El diseño en cada versión se hace tan simple como sea posible para la funcionalidad actual; no se diseña para el futuro, sino que se paga la opción de esperar para entender mejor el problema y prevenir cambios en los requerimientos. En la programación extrema se hace énfasis en escribir y automatizar las pruebas (unitarias y de funcionalidad) antes de iniciar la codificación. La programación se efectúa en pares sobre una misma máquina para tener una revisión continua; se utilizan estándares de codificación y el sistema se integra varias veces al día, cada vez que se completa una tarea. Finalmente, el sistema se reestructura periódicamente para eliminar duplicados, simplificar o agregar flexibilidad. 102 Capítulo 4 Algorítmica y programación Dentro del marco del proceso de administración del proceso, el Instituto de Ingeniería de Software de la Universidad de Carnegie-Mellon desarrolló el Modelo de Madurez de Capacidades para Software (SWCMM). Este modelo, basado en una colección de “mejores prácticas”, describe una ruta evolutiva de cinco niveles de madurez para el mejoramiento de la capacidad (intervalo de resultados esperados) del proceso de software de una organización. En el primer nivel (inicial) los procesos son ad-hoc y frecuentemente caóticos; el éxito de los proyectos depende de esfuerzos individuales. En el nivel dos (repetible) se tiene establecido el proceso de administración de proyectos para controlar el costo, calendario y funcionalidad; este proceso permite repetir éxitos en proyectos con aplicaciones similares. En el nivel tres (definido) se documentan y normalizan las actividades de administración e ingeniería en la organización; cada proyecto adecua sus actividades a partir de las normalizadas. En el cuarto nivel (administrado) se recopilan medidas detalladas de la calidad del producto y los procesos para entenderlos cuantitativamente. En el nivel cinco (optimizado) se mejoran continuamente los procesos a través de la retroalimentación cuantitativa de su desempeño estadístico y de la prueba de nuevas ideas y tecnologías. Cada nivel es la suma de las capacidades de los niveles inferiores, y se alcanza a partir del precedente, mejorando ciertas áreas particulares. Un nivel debe alcanzarse en todas y cada una de las áreas clave de proceso definidas para que la organización obtenga ese nivel. El modelo SWCMM se combina con otros modelos CMM, principalmente ingeniería de sistemas y desarrollo integrado de producto, para constituir el modelo CMM Integrado (CMMI), que representa un marco de referencia más amplio y que puede incluir, por ejemplo, el manejo del outsourcing. CMMI puede tener una representación escalonada, como SWCMM, o continua, en la que se evalúa la capacidad de cada área por separado. Los CMM son sólo modelos de referencia; especifican las características deseables de los procesos, pero no describen cómo se deben implementar. Una estrategia para la implementación eficaz de SWCMM o de CMMI está basada en el Personal Software Process (PSP) y el Team Software Process (TSP), creados por Watts Humphrey. PSP proporciona una disciplina individual para el desarrollo de productos de software; consiste en un conjunto de métodos, formas y guiones que muestran a los ingenieros cómo planear, medir y administrar su trabajo, con el objetivo de mejorar sus habilidades y lograr productos sin defectos, a tiempo y dentro de los costos planeados. Por otra parte, TSP guía a equipos en el desarrollo más eficiente de software proporcionando un contexto disciplinado de trabajo ingenieril que incluye procesos operacionales para formar equipos, establecer un ambiente eficaz de trabajo y guiar el trabajo de los equipos. Referencias 103 EJERCICIOS PROPUESTOS 1. Describa cuáles serían los pasos para desarrollar un algoritmo que dentro de un conjunto de 10 números, pueda darle el intervalo de los mismos. 2. Utilizando el algoritmo de Kruskal construya el árbol de mínimo recubrimiento de la siguiente gráfica (los números corresponden a las longitudes de las aristas). C B 16 25 18 30 6 12 E D 3. Defina en Lisp una función que calcule el n-ésimo número de la sucesión de Fibonacci: 1, 1, 2, 3, 5, 8, 13, 21, … 4. Explique cómo, a partir de un ejemplo de generaciones de conejitos que se reproducen, pueden derivarse los números de Fibonacci. 5. Indique los principales campos de aplicación para la programación por procedimientos, orientada a objetos, funcional y lógica. Referencias Aho, A. V. y Ullman, J. D. (1994). “Foundations of Computer Science”, en Computer Science Press, W. H. Freeman. Anderson, D. R., Sweeney, D. J. y Williams, T. A. (2003). An Introduction to Management Science – Quantitative Approaches to Decision Making, 10a. Ed., Thomson South-Western. Beck, K. (2000). Extreme Programming Explained – Embrace Change, Addison-Wesley. Bolter, J. D. (1988). El hombre de Turing: La cultura occidental en la era de la computación, Fondo de Cultura Económica, México. Coello Coello, C. A. (2003). Breve historia de la computación y sus pioneros, Fondo de Cultura Económica, México. Cowlishaw, M., Bloch, J. y Darcy, J. D. (2004). “Fixed, Floating, and Exact Computation with Java’s BigDecimal”, en Dr. Dobb’s Journal, julio de 2004, pp. 22-27. Denning, P. J. (2004). “The Field of Programmers Myth”, en Communications of the ACM, vol. 4, núm. 7, julio de 2004, pp. 15-20. Feynman, R. P. (1999). Feynman Lectures on Computation, Hey, T. y Allen, R. W. (Eds.), Perseus. Galaviz Casas, J. (2003). Elogio de la pereza: La ciencia de la computación en una perspectiva histórica, UNAM, Facultad de Ciencias, México. Greiff, W. R. (1993). “El ocaso del sol a través de una ventana: Un discurso sobre los paradigmas de programación”, en Soluciones Avanzadas, núm. 5, México, septiembre-octubre de 1993, pp. 35-40. Hennessy, J. L. y Patterson, D. A. (1993). Arquitectura de computadores: Un enfoque cuantitativo, McGraw-Hill, México. 104 Capítulo 4 Algorítmica y programación Jalote, P. (1997). An Integrated Approach to Software Engineering, 2a. Ed. Springer-Verlag. Knuth, D. E. (1980). El arte de programar ordenadores: Algoritmos fundamentales, Reverté. Levine, G. (2001), Computación y programación moderna: Perspectiva integral de la informática, Addison-Wesley, México. Sethi, R. (1992). Lenguajes de programación: Conceptos y constructores, Addison-Wesley, México. Turban, E., Rainer, K. R. y Potter, R. (2003). Introduction to Information Technology, 2a. Ed., John Wiley and Sons. Wirth, N. (1980). Algoritmos + Estructuras de Datos = Programas, Ediciones del Castillo, México. CAPÍTULO 5 Herramientas computacionales para ingeniería AUTOR: Dr. Héctor A. Moreno Ávalos Con la colaboración del Dr. Víctor Cruz Morales 5.1 Introducción 5.2 Programas computacionales para ingeniería 5.3 MATLAB 5.4 Comentarios finales 5.1 Introducción Una labor esencial durante la ejecución de un proyecto de ingeniería es la elaboración de cálculos matemáticos que permitan determinar las características del proceso o sistema que será desarrollado. Anteriormente, para cálculos sencillos esta labor se realizaba mediante el uso de la calculadora y un cuaderno de notas. El ingeniero planteaba el problema a ser resuelto hacia una abstracción del mismo, identificaba las variables de diseño y restricciones, y empleaba fórmulas para calcular, de acuerdo con los requerimientos, las distintas propiedades que el objeto de diseño debería poseer. En la actualidad esta labor se sigue realizando, no obstante, ahora se tiene al alcance una serie de herramientas computacionales que permiten realizar cálculos complejos de manera rápida, y mostrar los resultados de distintas formas para facilitar su interpretación. Estas herramientas permiten reducir sustancialmente el tiempo de análisis y diseño en un proyecto de ingeniería. Estos paquetes contienen una gran cantidad de funciones que permiten un fácil manejo de operaciones matemáticas. Además, permiten visualizar grandes cantidades de información a través de sus funciones gráficas. Otra gran ventaja que presentan es que se mantiene un registro de los cálculos realizados durante el proyecto. Esto permite revisar, corregir y mejorar los procedimientos de cálculo, que además pueden ser reutilizados en diferentes proyectos. 106 Capítulo 5 Herramientas computacionales para ingeniería En este capítulo se presenta un breve panorama sobre los paquetes computacionales que pueden ser empleados para realizar cálculos de ingeniería. Posteriormente se presenta una introducción a MATLAB, uno de los paquetes más empleados en la academia e industria para cálculos matemáticos. Los temas abordados son: la interfaz de usuario, la introducción de comandos, las funciones básicas del programa, la programación, la creación de gráficos y las funciones de matemática simbólica. 5.2 Programas computacionales para ingeniería Entre los paquetes computacionales que pueden ser empleados para cálculos de ingeniería están: • • • • • Excel® Mathcad® Maple® MATLAB® Scilab Excel es uno de los programas de computación más empleados en la industria. Este es un programa de hoja de cálculo desarrollado por Microsoft®. Las hojas de cálculo son aplicaciones en las que se almacenan, procesan y visualizan datos numéricos en una rejilla de celdas. Estas celdas son referidas por el renglón y columna que ocupan en la rejilla. En la figura 5.1 se presenta la interfaz de usuario de Excel. Inicialmente concebidas para su uso en ámbitos financieros, las hojas de cálculo pueden ser también empleadas en proyectos de ingeniería por su capacidad genérica para realizar cálculos matemáticos. En el caso de Excel, éste contiene diversas funciones de estadística y de matemática elemental. El usuario puede crear otras funciones matemáticas mediante una sintaxis propia para la referencia de celdas y los operadores matemáticos básicos. Por otro lado, Excel permite la creación de gráficos en dos dimensiones, los cuales son una herramienta muy útil para visualizar la información de manera global. En internet existe una gran cantidad de tutoriales y plantillas para Excel. Se recomienda al lector revisar la información contenida en el sitio oficial (office.microsoft.com/es-hn). Dentro de otra categoría de programas de cálculo están aquellos que se podrían denominar de cálculo técnico. Estos programas tienen en común que, además de las funciones para el cálculo numérico, poseen otras funciones y herramientas que permiten, por ejemplo: el cálculo algebraico simbólico, el cálculo diferencial e integral, la resolución de ecuaciones diferenciales, la optimización numérica, el álgebra matricial, entre otras funciones matemáticas avanzadas. Esta clase de programas contienen funciones propias de la física y la ingeniería, facilitan la implementación de algoritmos mediante operadores o lenguajes de programación y proveen 5.2 Programas computacionales para ingeniería 107 FIGURA 5.1 Interfaz de usuario de Excel de una amplia variedad de opciones para la creación de gráficas en dos y tres dimensiones. En esta última categoría se encontraría el Mathcad, propiedad actualmente de la compañía PTC®. La interface de usuario de Mathcad está compuesta de múltiples barras de herramientas y un área de trabajo donde el usuario introduce las funciones matemáticas que incluyen sus cálculos de ingeniería. En la figura 5.2 se muestra la interfaz de usuario de Mathcad. Mathcad tiene como peculiaridad que las funciones se presentan en notación matemática estándar, lo cual facilita su lectura e interpretación. En el área de trabajo se definen las variables y funciones involucradas en los cálculos. Se pueden crear las funciones escribiéndolas directamente o mediante los botones de las barras de herramientas. Además se puede agregar texto, como comentarios sobre la lógica de las operaciones y referencias a las funciones. De esta manera se realizan los cálculos del proyecto y, al mismo tiempo, se documentan. 108 Capítulo 5 Herramientas computacionales para ingeniería FIGURA 5.2 Interfaz de usuario de Mathcad Otro programa para cálculo técnico es Maple. Es un programa que originalmente fue desarrollado para realizar álgebra computacional, es decir, realizar operaciones matemáticas empleando variables simbólicas (caracteres de texto). Posteriormente este programa fue ampliando una gran variedad de herramientas para cálculos de ingeniería, como las que presenta Mathcad o MATLAB. Por otra parte, Scilab es un paquete de cálculo técnico que se asemeja a MATLAB en su interfaz y operación. Lo distintivo de Scilab es que es un software de código abierto, es decir, se puede adquirir y utilizar sin costo alguno (www.scilab.org). A continuación se realiza una presentación de las herramientas y el uso de MATLAB. Este paquete dispone de un lenguaje de programación y una serie de funciones básicas. También posee gran cantidad de funciones contenidas en librerías especializadas en diferentes áreas de ingeniería y ciencia, las cuales se denominan toolboxes. En la siguiente sección se hará referencia principalmente a las funciones básicas, y al final se describirá la toolbox de matemática simbólica. 5.3 MATLAB 109 5.3 MATLAB MATLAB es un paquete de software orientado a la realización de proyectos que involucren cálculos matemáticos complejos o de gran magnitud, así como la visualización gráfica de los mismos. Posee un entorno para el desarrollo de aplicaciones y un lenguaje de programación propio. El nombre de MATLAB es una contracción de MATrix LABoratory (laboratorio de matrices), ya que originalmente fue diseñado para manejo de matrices matemáticas en cursos de álgebra lineal. Actualmente MATLAB se encuentra implantado en gran cantidad de universidades, ya que es útil en la impartición de cursos, como álgebra lineal, ecuaciones diferenciales, ingeniería de control, procesamiento de imágenes, etc. Por otro lado, también es empleado en centros de investigación y desarrollo de varias compañías, debido a sus prestaciones para modelado y simulación, las librerías especializadas que posee y a su capacidad para interactuar con diferentes clases de software y hardware. FIGURA 5.3 Intefaz de usuario de MATLAB 110 Capítulo 5 Herramientas computacionales para ingeniería Los usos típicos de MATLAB incluyen: • • • • • • Cálculos matemáticos Implementación de algoritmos Modelado y simulación Creación de gráficos científicos y de ingeniería Adquisición de datos y control de sistemas Desarrollo de aplicaciones con GUIs Interfaz de usuario La principal forma de interactuar con MATLAB es a través de su interfaz de usuario, la cual se muestra en la figura 5.3. Ésta aparece una vez que se ejecuta la aplicación. Los elementos de la interfaz de usuario son: 1. Barra de menús. Esta barra contiene diversos menús de comandos, algunos de ellos se encuentran comúnmente en cualquier software, como: los comandos de abrir, guardar y exportar archivos; hacer, deshacer, copiar, pegar, cortar y eliminar; aquellos que despliegan las herramientas de ayuda. 2. Barra de herramientas. En esta barra se muestran como iconos algunos de los comandos anteriormente citados y que se encuentran en la barra de menús. Los dos elementos más importantes son: el icono de Simulink, que manda a ejecutar este programa, y el campo en el que se muestra y se puede definir el directorio actual (Current Directory). 3. Command Window. Ésta es la sección más importante de la interfaz de usuario, ya que en esta ventana se introducen los comandos que MATLAB va a ejecutar y se despliegan los resultados de las operaciones realizadas. Posteriormente se describirá con mayor detalle esta ventana. 4. Ventana Current Directory. En esta ventana aparecen los archivos y carpetas contenidos en el directorio (o carpeta) actual. Dando doble click sobre algún elemento de esta ventana se abre el archivo o carpeta correspondiente. 5. Ventana Workspace. En esta ventana se presentan las variables (y sus valores) que se han definido durante la sesión. Presenta opciones para leer y guardar archivos de variables (*.mat). 6. Ventana Command History. Esta ventana muestra el historial de comandos introducidos por el usuario en el Command Window. Se pueden arrastrar comandos desde esta ventana hacia el Command Window para no volverlos a escribir de nuevo. Línea de comandos Como se comentó, para interactuar con MATLAB se introducen las operaciones en la línea de comandos indicada por el símbolo >>. Por ejemplo, 5.3 MATLAB 111 TABLA 5.1 Operaciones aritméticas Operación Símbolo Suma Resta - División / Multiplicación * Potencia ^ para crear una variable llamada “a” y asignarle un valor de 1, hay que escribir después del símbolo >> aⴝ1 y presionar Enter, como se muestra en el siguiente cuadro: >> a1 a 1 >> En la primera línea se muestra la asignación que realizó el usuario. Después de presionar Enter, MATLAB indica el resultado de la operación, es decir, que se ha creado una variable a y su valor es 1. Luego de esto aparece de nuevo el símbolo >> para indicar que MATLAB está habilitado para recibir nuevas instrucciones. MATLAB permite realizar una enorme variedad de operaciones matemáticas. Las más sencillas son las aritméticas, que se enlistan en la tabla 5.1 con su correspondiente símbolo de MATLAB. Para realizar la suma de dos variables, a y b, cuyos valores son 1 y 2, respectivamente, lo que se hace es escribir ab, después se presiona Enter. >> ab ans 3 El resultado de la operación se guarda en una variable del programa llamada ans. Si se deseara dividir a entre b, se realizaría la siguiente operación: >> a/b ans 0.5000 112 Capítulo 5 Herramientas computacionales para ingeniería TABLA 5.2 Algunas variables predefinidas Operación Símbolo pi Número 3.1416… ioj Unidad imaginaria 1 Inf o inf Infinito NaN o nan Indeterminación MATLAB tiene una serie de variables predefinidas, las cuales se enlistan en la tabla 5.2. Se recomienda ser cuidadoso si se redefinen durante una sesión o programa. Arreglos, vectores y matrices En MATLAB las variables son arreglos de datos, es decir, es un conjunto ordenado de elementos del mismo tipo. De esta manera una variable puede contener el historial de valores de cierta magnitud de algún fenómeno (p. e. la temperatura de una habitación en diferentes horas del día). Un arreglo unidimensional se denomina vector, y puede ser de dos tipos: vector renglón o vector columna. Para crear un vector renglón se usan corchetes que contienen a los elementos, separados por una coma o un espacio en blanco, por ejemplo: >> p[1 2 3] p 1 2 3 Para crear un vector columna lo que se hace es separar a los elementos por un punto y coma (;), como se muestra a continuación: >> q[4; 5; 6; 7] q 4 5 6 7 La diferencia entre un vector renglón y un vector columna tiene importancia cuando se realizan operaciones matemáticas que incluyen matrices. Cabe señalar que un vector puede contener cualquier número finito de 113 5.3 MATLAB elementos. En f ísica los vectores más comunes son los de dos y tres dimensiones, que permiten, por ejemplo, definir la posición de un punto en coordenadas cartesianas; los vectores también son usados para caracterizar ciertas magnitudes f ísicas, como la velocidad, la aceleración y la fuerza. Se pueden crear vectores mediante el operador dos puntos (:). Se indica el valor inicial, el incremento y el valor final que deben tener los valores del arreglo, como se muestra en el cuadro. >> c1:0.5:4 c 1.0000 1.5000 2.0000 2.5000 3.0000 3.5000 4.0000 En MATLAB se pueden crear arreglos de múltiples dimensiones. Además de los vectores, los arreglos bidimensionales son otro tipo de variables muy usadas. Los arreglos bidimensionales se emplean para representar matrices matemáticas, las cuales tienen múltiples aplicaciones en ingeniería. Para crear una matriz en MATLAB, se escriben entre corchetes los elementos de cada renglón separados por un espacio (o una coma), y se emplea el punto y coma (;) para comenzar un nuevo renglón: >> A[1 2 3; 4 5 6; 7 8 9] A 1 2 3 4 5 6 7 8 9 Todos los renglones deben tener el mismo número de elementos, y lo mismo aplica para arreglos de mayores dimensiones. Para determinar el tamaño de un arreglo se emplea la función size( ). Esta función entrega el número de renglones y de columnas del arreglo definido en el argumento. >> size(p) ans 1 3 Se puede acceder al valor de un arreglo mediante el empleo de índices; por ejemplo, para visualizar al tercer elemento del vector q (que se definió anteriormente) se escribe: 114 Capítulo 5 Herramientas computacionales para ingeniería >> q(3) ans 6 En el caso de matrices se debe indicar los índices correspondientes al renglón y la columna donde se encuentra el elemento: >> A(3,2) ans 8 Al igual que en el caso de las variables de un solo elemento (llamadas también escalares), MATLAB permite realizar operaciones aritméticas de vectores, matrices y arreglos de mayores dimensiones. Se pueden emplear las mismas operaciones presentadas en la tabla 5.1, así como realizar operaciones entre escalares y vectores; por ejemplo, para las variables previamente definidas b y p se tiene: >> b*p ans 2 4 6 >> p/b ans 0.5000 1.0000 1.5000 Lo anterior se puede hacer también entre un escalar y una matriz. Las operaciones aritméticas entre vectores y matrices deben cumplir ciertas condiciones con respecto al tamaño de las variables involucradas. Para la suma y la resta entre vectores (o entre matrices) basta que sean del mismo tamaño. La suma (o resta) se hace elemento a elemento y el resultado se almacena en otro vector (o matriz, según el caso), por ejemplo: >> [2 8 1]p ans 3 10 4 >> AA ans 2 8 14 4 10 16 6 12 18 5.3 MATLAB 115 Se puede observar que en la primera línea del cuadro anterior no fue necesario crear una nueva variable, sino que también es posible definir los valores directamente de un vector. La multiplicación entre arreglos unidimensionales y bidimensionales se realiza de acuerdo con las reglas matemáticas para multiplicación entre matrices. Para realizar la multiplicación entre dos matrices, se debe cumplir que el número de elementos de cada renglón de la primera matriz sea igual al número de elementos de cada columna de la segunda matriz. Por ejemplo, en el siguiente cuadro se crea un vector columna r (con valores de sus elementos 1, 8, 3) y luego se multiplica por la matriz A. >> r[1; 8; 3] r 1 8 3 >> A*r ans 26 62 98 En matemáticas la multiplicación entre matrices (y vectores) consiste en multiplicar uno a uno los elementos del i-ésimo renglón de la primera matriz con los elementos de la j-ésima columna de la segunda matriz y sumarlos. El resultado corresponde al elemento (i, j) de la matriz derivada de la operación. Un equivalente de la división entre matrices es el cálculo de la matriz inversa. La determinación de la matriz inversa tiene una gran aplicación en problemas de álgebra elemental. Si se tiene un sistema de 3 ecuaciones con 3 incógnitas, como el siguiente: 2x y z 20 x 2y 3z 15 5x 2y z 8 Este sistema se puede expresar de manera matricial como: Cx ⴝ r Donde [ ] 2 C 1 5 1 2 2 1 3 1 [] x x y z [] 20 r 15 8 116 Capítulo 5 Herramientas computacionales para ingeniería El vector de incógnitas se determinaría por: x C1r siendo C1 la matriz inversa de C. En MATLAB se resolvería este sistema de ecuaciones empleando la función inv( ) de la siguiente manera: >> C[2 1 1; 1 2 3; 5 2 1]; >> r[20; 15; 8]; >> xinv(C)*r x 28.4999 -97.4999 60.4999 La función inv( ) entrega la matriz inversa de la variable que se encuentra en su argumento. En el cuadro anterior se puede observar también que, si se escribe un punto y coma al final de la línea, MATLAB no muestra el resultado de la acción que se ejecuta (en el caso de la primera línea, no se muestra que se definió C). Comandos y funciones básicas Como se explicó, MATLAB contiene una serie de comandos y funciones básicas y un conjunto de toolboxes con funciones relativas a diferentes campos de especialización. En este apartado se revisarán algunas funciones básicas de MATLAB. Se pueden clasificar de acuerdo con las siguientes categorías: • • • • • • • Herramientas de escritorio Funciones matemáticas Análisis de datos Programación Gráficos Desarrollo de interfaces de usuario Interfaces externas En la primera categoría, herramientas de escritorio, se encuentran los comandos que permiten iniciar o cerrar MATLAB y otras herramientas (Simulink, helpdesk, etc.); realizar operaciones sobre el Command Window y el Workspace; obtener información de comandos y funciones; realizar operaciones con archivos (como buscar, copiar, borrar, etc.), y acceder 5.3 MATLAB 117 TABLA 5.3 Algunos comandos para Command Window y Workspace Comando Descripción clc Limpia la ventana del Command Window. format Define el formato en que se presentan las variables numéricas. save Guarda las variables del workspace en un archivo *.mat. load Lee un archivo *.mat y carga sus variables en el workspace. who Presenta una lista con las variables activas en el workspace. clear Borra las variables del workspace. close Cierra las ventanas de gráficos. help Presenta la descripción y empleo de cierto comando. doc Abre la documentación de MATLAB relativa a cierto comando. quit Cierra MATLAB. a directorios. En la tabla 5.3 se presentan algunos comandos útiles para realizar operaciones sobre el Command Window y el Workspace. MATLAB contiene múltiples funciones matemáticas elementales, como funciones trigonométricas, logarítmicas y exponenciales, para números complejos, de redondeo, etc. (véase tabla 5.4). También posee funciones que permiten realizar operaciones entre polinomios, y otras que proveen de múltiples métodos de interpolación. La mayoría de las funciones matemáticas se pueden aplicar indistintamente a escalares y arreglos. En el siguiente cuadro se presenta el uso de la función de raíz cuadrada para un escalar con arreglo (pⴝ[1 2 3]): >> sqrt(9) ans 3 >> sqrt(p) ans 1.0000 1.4142 1.7321 Uno de los distintivos de MATLAB es su funcionalidad para el manejo de matrices. Este software posee funciones para álgebra lineal, las cuales permiten, por ejemplo, resolver sistemas lineales, obtener la factorización LU y de Cholesky, calcular el rango y el determinante de una matriz, calcular los valores singulares, etcétera. 118 Capítulo 5 Herramientas computacionales para ingeniería TABLA 5.4 Algunas funciones matemáticas básicas Función Descripción sum() Entrega la suma de los elementos de un arreglo. prod() Entrega la multiplicación entre los elementos de un arreglo. Potenciación y exponenciación power() Eleva a cierta potencia un número. sqrt() Entrega la raíz cuadrada del argumento. exp() Entrega el valor de la función exponencial dado el argumento. log() Entrega el logaritmo natural del argumento. Trigonométricas sin() Entrega el valor del seno del argumento (dado en radianes). cos() Entrega el valor del coseno del argumento. tan() Entrega el valor de la tangente del argumento. asin() Entrega el ángulo del arco seno del argumento. atan2() Entrega el ángulo (entre π y π) del arco tangente del argumento. Números complejos complex() Crea un número complejo. abs() Entrega el módulo del número complejo. angle() Entrega el ángulo de fase del número complejo. real() Entrega la parte real del número complejo. imag() Entrega la parte imaginaria del número complejo. Redondeo fix() Redondea hacia cero. round() Redondea hacia el entero más cercano. Entre las funciones orientadas al análisis de datos, están aquellas propias de estadística descriptiva, funciones de filtrado y convolución, derivadas e integrales numéricas, análisis de series temporales, etc. En la tabla 5.5 se presentan algunas funciones comunes de estadística. En los siguientes apartados se presentarán los comandos, operadores y TABLA 5.5 Algunas funciones de estadística descriptiva Comando Descripción max() Entrega el valor máximo de un arreglo. min() Entrega el valor mínimo de un arreglo. mean() Entrega la media de los valores de un arreglo. std() Entrega la desviación estándar de un arreglo. 5.3 MATLAB 119 estructuras de control empleadas para la programación en MATLAB, así como las funciones para realizar gráficos en dos y tres dimensiones. Programación Antes de entrar al tema de la programación en MATLAB, conviene explicar la creación de archivos en este programa. Los archivos que contienen comandos o funciones son llamados archivos M. Éstos son archivos de texto y tienen una extensión *.m. Para crear un nuevo archivo M se debe ir a la barra de menús y seleccionar File\New\M-File. Después de eso se abrirá un editor de texto donde se escribirán los comandos o funciones. Existen dos tipos de archivos: los archivos de comandos (scripts) y las funciones. Un archivo de comandos consiste de una secuencia de comandos de MATLAB, estos archivos no son propiamente un programa. Las funciones, por su parte, son programas que tienen como entrada argumentos, procesan la información contenida en ese argumento mediante diversas operaciones, y entregan valores de salida. Para crear una función en MATLAB se escribe la palabra function al principio del archivo seguida de la variable de la salida, el símbolo “”, el nombre de la función y los argumentos entre paréntesis. En el siguiente cuadro se muestra una función, llamada area_tri(), que calcula el área de un triángulo. function Aarea_tri(a,b) %Esta función calcula el área de un triángulo. Aa*b/2; Los argumentos de esta función son las variables locales de entrada a y b que representan la altura y la base del triángulo. La salida de la función se realiza a través de la variable A. En la última línea del archivo se muestra la operación para el cálculo del área. Se puede notar también que en los archivos M los comentarios se hacen empleando el símbolo %. En el siguiente cuadro se presenta la ejecución de la función. El valor de salida se almacena en la variable S. >> Sarea_tri(2,3) S 3 MATLAB dispone de comandos para implementar estructuras de control de flujo. Este tipo de estructuras se encuentran en la mayoría de los 120 Capítulo 5 Herramientas computacionales para ingeniería TABLA 5.6 Operadores relacionales Operador > > < TABLA 5.7 Operadores lógicos Significado Mayor que Operador Significado && Y lógico Mayor o igual que || O lógico Menor que ~ No lógico < Menor o igual que Igual que ~ Diferente que lenguajes de programación y permiten modificar el flujo de ejecución de las instrucciones que constituyen al programa. MATLAB incluye estructuras de control de selección y de iteración. Para las estructuras de control de selección se tienen los comandos if y switch, y para las estructuras de iteración se tienen los comandos for y while. La sintaxis para el empleo de if es la siguiente: if expresión instrucciones end Si la expresión es verdadera, se ejecutan las instrucciones que se encuentran dentro de la estructura, de otra manera no se ejecutan estas expresiones y el programa continúa en la siguiente instrucción. Las expresiones lógicas se construyen con las variables definidas en el programa y operadores relacionales y lógicos, como los que se muestran en las tablas 5.6 y 5.7. Por otra parte, la sintaxis para el empleo de switch es la siguiente: switch variable case valor1 instrucciones case valor2 instrucciones … otherwise instrucciones end En esta estructura se ejecutan las instrucciones correspondientes al bloque en el que la variable sea igual al valor (valor1, valor2,… valorn) de 5.3 MATLAB 121 alguno de los casos. De esta manera se selecciona alguno de los casos de la estructura. Cuando el valor de la variable no corresponde a ningún caso, entonces se ejecutan las instrucciones que se encuentran en otherwise. En el siguiente cuadro se presenta un ejemplo de la aplicación del if y del switch. La función calcula el perímetro de algunas figuras sencillas: el rectángulo, el triángulo y el círculo. Los argumentos de entrada son el tipo de figura y los parámetros geométricos de la figura. El valor de salida es el perímetro de la figura. A través de la variable local fig el programa selecciona el caso que se va a ejecutar. Cuando la figura sea el rectángulo, se presenta el caso particular del cuadrado, el cual se selecciona mediante el if. Function PPerímetro(fig, par) % Función que calcula el perímetro de una figura geométrica (rectángulo, triángulo y círculo) % fig: indica el tipo de figura % par: arreglo que contiene los parámetros geométricos de la figura switch fig case 1 %Rectángulo nlength(par) %Número de parámetros if n1 %Caso particular del cuadrado P4*par(1); else P2*(par(1)par(2)); end case 2 %Triángulo Ppar(1)par(2)par(3); case 3 %Círculo P2*pi*par(1); otherwise P0; disp(‘No existe ese caso’) %Muestra por pantalla end Para implementar estructuras de control de iteración con for, se emplea la siguiente sintaxis: for variableini:fin instrucciones end El bloque de instrucciones se ejecutará repetidamente hasta que la variable alcanza su valor final fin. Generalmente la variable toma valores en- 122 Capítulo 5 Herramientas computacionales para ingeniería teros, y se utiliza dentro del bloque de instrucciones como contador e índice para los diferentes arreglos. Para implementar estructuras de control de iteración con while, se emplea la siguiente sintaxis: while expresión instrucciones end El bloque de instrucciones se ejecuta repetidamente mientras la expresión lógica es verdadera. En el siguiente cuadro se presenta una función que entrega dos arreglos, uno correspondiente a diferentes valores de radios y otro que contiene las áreas correspondientes a esos radios. Los valores de entrada son el máximo valor del radio y el tamaño de los arreglos que se desean obtener. En esta función se utilizó la sentencia for para generar los arreglos de salida de la función. function [área, radio]área_r_cir(np, rmax) Drrmax/np; for i0:np radio(i)Dr*i; área(i)pi*radio(i)^2; end Gráficos MATLAB contiene varias instrucciones para crear gráficos de alta calidad en dos y tres dimensiones. Para crear un gráfico de dos dimensiones se emplea la función plot( ). En el argumento de esta función se deben indicar los pares de variables que se van a graficar. En el siguiente cuadro se muestra el uso de esta función para crear una gráfica del coseno para diferentes valores del ángulo desde 0 a 2π. En la figura 5.4 se presenta la figura resultante. >> a0:pi/180:2*pi; >> ccos(a); >> plot(a,c) Por otro lado, también se puede configurar el estilo y el color de la línea, indicándolo entre comillas después del par de variables en la función plot(), como se muestra a continuación: >> plot(a,c,‘k-.’) 5.3 MATLAB 123 FIGURA 5.4 Gráfica del coseno En la instrucción anterior se indica el color mediante la letra k (en este caso negro) y el tipo de línea mediante el símbolo - . En la figura 5.5 se muestra el resultado de aplicar estas opciones. Para agregar otra gráfica a la figura se agrega otro par de datos. Por ejemplo, para agregar la gráfica del seno, se haría lo siguiente. >> ssin(a); >> plot(a,c,‘b-‘,a,s,‘r--‘) En la figura 5.6 se presenta el resultado de aplicar este comando. La línea correspondiente al seno es roja y discontinua debido a que se indicó ‹r--›. Para agregar un título, etiquetas a los ejes y leyendas a los gráficos, se tienen las siguientes funciones: >> title(‘Función Seno y Coseno’) >> xlabel(‚a [rad]‘) >> legend(‚cos(a)‘,‘sen(a)‘) 124 FIGURA 5.5 Gráfica del coseno empleando distinto tipo de línea FIGURA 5.6 Gráfica del seno y el coseno Capítulo 5 Herramientas computacionales para ingeniería 5.3 MATLAB 125 FIGURA 5.7 Gráfica del seno y del coseno con título y leyenda En la figura 5.7 se presenta el resultado de aplicar las funciones anteriores. Para crear gráficos tridimensionales de una función de dos variables se tiene la función surf(). Esta función se puede usar en conjunto con la función meshgrid(), la cual genera los valores de las variables para ciertos intervalos dados de valores de las funciones. Por ejemplo, si se deseara graficar la función: z(x, y) x2 y2 En un intervalo de valores de [1, 1] para ambas variables independientes, se emplearían los comandos del siguiente cuadro: >> [X, Y] meshgrid(-1:0.05:1); >> ZX.^2Y.^2; >> surf(X,Y,Z) En la figura 5.8 se presenta la gráfica en tres dimensiones, resultado de las instrucciones anteriores. 126 Capítulo 5 Herramientas computacionales para ingeniería FIGURA 5.8 Gráfica de la función z (x, y ) x 2 y 2 Symbolic Math Toolbox Como ya se dijo, además de las funciones básicas de MATLAB existe una gran variedad de librerías especializadas en diferentes áreas de las matemáticas y la ingeniería. Una de ellas es la librería de matemática simbólica. Esta librería permite trabajar con expresiones matemáticas escritas en términos de variables simbólicas (representadas por caracteres de texto). Suponga que se desea trabajar con las siguientes funciones de x: y 3x2 2x 1 zx1 El primer paso es definir las variables simbólicas, mediante el comando syms, y posteriormente definir las expresiones. >> syms x y z >> y3*x^2 2*x 1; >> zx-1; Ahora, si se multiplica y por z, el resultado que se obtendría sería el siguiente: 5.4 Comentarios finales 127 >> y*z ans (3*x^22*x1)*(x-1) Como se observa, el resultado de la operación está expresado en términos de la variable simbólica x. La anterior expresión se puede expandir mediante la función expand(). >> expand(y*z) ans 3*x^3-x^2-x-1 Una función de MATLAB útil es factor(), la cual realiza la factorización de un polinomio. >> factor(x^22*x1) ans (x1)^2 Por otro lado, para simplificar expresiones se puede emplear la función simple(). >> simple((x^22*x1)/(x-1)) ans (x1)^2/(x-1) Cuando se ejecuta la función simple(), en el Command Window se despliega toda la serie de operaciones que se realizaron para llegar a la respuesta final. 5.4 Comentarios finales El desarrollo de habilidades en el manejo de programas de cálculo técnico para ingeniería es una actividad importante. Una vez dominado el manejo de este tipo de programas, el siguiente paso es conocer su uso en conjunto con otro tipo de herramientas CAD y CAE. Naturalmente, la información obtenida de los análisis realizados en los programas de cálculo técnico (los 128 Capítulo 5 Herramientas computacionales para ingeniería cálculos de ingeniería) se toma como base para fases posteriores del proceso de diseño, como lo es el diseño de detalle en programas de CAD (por ejemplo, Inventor®, SolidWorks®, AutoCAD®, etc.). No obstante, esta clase de programas poseen funciones que permiten un intercambio automatizado de diversas clases de datos. La forma más elemental de intercambio de información entre programas de cálculo técnico, CAD y CAE, es a través de la importación y exportación de archivos de datos. Existen otras maneras más sofi sticadas de interacción entre paquetes de ingeniería. En el caso de sistemas electromecánicos, existe una técnica llamada cosimulación. La cosimulación es una metodología que permite que múltiples componentes de distinta naturaleza (mecánicos, eléctricos, electrónicos, etc.) sean simulados mediante diferentes herramientas de simulación concurrentemente, a través de un intercambio de información continua. Un ejemplo de esto es el uso de MATLAB/Simulink en conjunto con programas de simulación de sistemas multicuerpo, como lo son ADAMS® o NX®. En este esquema se puede simular el control y la dinámica de un sistema tomando en cuenta los distintos tipos de elemento involucrados, como los motores (eléctricos, hidráulicos, neumáticos) y los elementos mecánicos (eslabones, articulaciones, engranes, etc.). Los elementos de control se simularían en MATLAB/Simulink y la dinámica del mecanismo en ADAMS. Empleando en conjunto estas herramientas se puede analizar y optimizar el sistema de manera global. EJERCICIOS PROPUESTOS 1. Investigue cuál es el software y las herramientas más utilizadas dentro de la ingeniería mecánica e ingeniería eléctrica. 2. Para a 2, b 8 y c 12, calcule: a2 +b c p= q pa2 r sen(a) cos(a) 3. Para el siguiente par de vectores y matriz [] d 2 4 [] [] e 5 2 1 f 7 6 3 G [ 1 4 5 2 3 6 ] Calcule sef t Gf d u G( f e) Referencias 129 4. Resuelva el siguiente sistema de ecuaciones: 2x y z 20 x 4y 3z 15 5x 2y z 8 5. Grafique las siguientes funciones para un intervalo de valores de la variable independiente x [0, 10]. f (x) x3 x2 g(x) ex 6. Realice la factorización de las siguientes expresiones: x2 6x 9 x2 8x 16 x2 10x 25 Referencias en la Web office.microsoft.com es.ptc.com www.maplesoft.com www.scilab.org www.mathworks.com MATLAB. Getting Started Guide. Referencias Romero Bauset, J. V., Roselló Ferragud, M. D. y Zalaya Báez, R. (2010). Fundamentos matemáticos para la ingeniería con MATLAB. Ed. Universidad Politécnica de Valencia. Moore, H. (2007). MATLAB para ingenieros, 1a. Ed. Pearson Education. Rodríguez, M. G. (2003). Introducción rápida a MATLAB y Simulink para ciencia e ingeniería. Ed. Díaz de Santos. CAPÍTULO 6 Energía, medio ambiente y desarrollo sustentable AUTOR: Dr. Omar Romero Hernández 6.1 Introducción 6.2 Principales problemas ambientales y energéticos 6.3 Breve recuento histórico (The natural step) 6.4 Herramientas de manejo ambiental 6.5 Flujos de materia y energía 6.6 Análisis de ciclo de vida 6.7 Gestión de riesgos 6.8 Evaluación de impacto ambiental 6.9 Energías renovables 6.10 Ecología industrial 6.11 Sistemas empresariales de manejo ambiental 6.1 Introducción El desarrollo y la operación exitosa de las empresas requieren evaluaciones continuas de oportunidades, riesgos y tendencias. Aunque tradicionalmente las evaluaciones se han llevado a cabo tomando en cuenta factores económicos, políticos y sociales, desde hace algunas décadas aparecieron en la escena principal dos nuevos agentes del éxito que cada día aumentan su fuerza: el medio ambiente y la responsabilidad social. En 1987, con la publicación del libro Nuestro futuro común, por la Comisión Mundial para el Medio Ambiente y el Desarrollo, los hechos concernientes a la conservación de los recursos y al desarrollo sustentable se volvieron más populares. En este mismo libro se plantea que las empresas jugarán un papel vital en el futuro y se reconoce que el crecimiento económico y el medio ambiente están inextricablemente unidos. El propósito de este capítulo es familiarizar al estudiante con las principales tendencias que han acompañado al binomio industria-medio ambiente en las últimas décadas. También se describen las principales herramientas ambientales que han venido evolucionando, así como su aplicación. Se hace especial énfasis en tres herramientas: análisis de ciclo de vida, gestión de riesgos y evaluación de impacto ambiental. También se habla sobre las características e importancia de las energías renovables como fu- 132 Capítulo 6 Energía, medio ambiente y desarrollo sustentable turo motor de crecimiento y desarrollo sostenido. Finalmente, el documento presenta tendencias a nivel macro, conocidas bajo el nombre de ecología industrial, así como algunos sistemas empresariales de manejo ambiental. 6.2 Principales problemas ambientales y energéticos Actualmente el mundo enfrenta uno de los principales retos en la historia de la humanidad: garantizar un crecimiento económico sostenido, mejorar las condiciones sociales de la población y, al mismo tiempo, proteger los recursos naturales y mejorar el medio ambiente. Lamentablemente, la evidencia científica indica que no estamos haciendo lo suficiente y que los efectos adversos derivados de fenómenos como el calentamiento global pronto representarán un costo mayor al de las acciones requeridas para evitarlo. Desde mediados del siglo pasado la humanidad ha atestiguado una serie de cambios dramáticos en industrialización, niveles de consumo y crecimiento demográfico. Lo anterior ha obligado a la adopción de medidas globales y locales enfocadas a la atenuación de los desequilibrios e impactos adversos. Entre las reuniones y acuerdos internacionales de mayor trascendencia destacan el Protocolo de Montreal (1987), donde se establecen medidas para disminuir la generación y emisión a la atmósfera de sustancias que dañan la capa de ozono; la Cumbre de la Tierra (1992), celebrada en Río de Janeiro, donde se adoptó la Agenda 21 con acciones específicas de los gobiernos enfocadas a disminuir efectos ambientales adversos; el Protocolo de Kyoto (1998), donde se aborda el problema de las emisiones de gases de efecto invernadero que contribuyen al calentamiento global de la atmósfera terrestre y se establecen compromisos por parte de algunos gobiernos para disminuir la emisión de estos gases, y la Cumbre Mundial de la Tierra (2002), celebrada en Johannesburgo, donde se abordaron temas globales relacionados con el acceso al agua potable y servicios de sanidad, disminuir el consumo de químicos que representan altos riesgos ambientales y a la salud, proteger la biodiversidad de las especies, entre otros, y se establecieron compromisos económicos y acciones específicas para un desarrollo sustentable. A pesar de las modificaciones en los hábitos de consumo energético y de la crisis económica mundial, el apetito por la energía continúa; para el año 2050 la demanda mundial de energía será el doble del valor actual. Para esa fecha, la población mundial habrá aumentado de 6500 millones a 9000 millones de habitantes. Más aún, países como México, China, India y Brasil estarán integrando millones de habitantes a una economía moderna y con un estilo de vida que demandará más energía per cápita. 133 6.2 Principales problemas ambientales y energéticos Año 2025 1995 1980 1960 1900 1700 0 2000 4000 6000 8000 10 000 Millones de habitantes FIGURA 6.1 Poblacion mundial 1700-2025 Los estudios de prospectiva energética elaborados por organismos internacionales (como la Agencia Internacional de Energía, el Programa de las Naciones Unidas para el Medio Ambiente, entre otros), muestran que en las próximas décadas los combustibles fósiles seguirán siendo la fuente dominante de energía. Sin embargo, cada día se agotan los suministros fácilmente accesibles y económicamente factibles. La gama de problemas ambientales y energéticos es muy amplia, así como sus efectos y consecuencias. Los siguientes párrafos comentan sobre algunos de los principales problemas ambientales y energéticos que afectan a nuestro planeta. Crecimiento poblacional: la evolución demográfica puede apreciarse en la figura 6.1. En ésta se observa que la población mundial aumenta cada vez con mayor velocidad. En el periodo de 1700 a 1900 la población mundial se triplicó de 500 a 1500 millones; sin embargo, en 1950 alcanzó la cifra de 2500 millones, y en al año 2000 se dio la bienvenida al habitante 6000 millones del planeta Tierra. El aumento en la población y las actividades humanas generan presiones en la disponibilidad de recursos naturales, en los alimentos, servicios de salud, saneamiento, energía y vivienda. Una falta de control y planeación en el crecimiento de la población puede provocar la pérdida de bosques, suelos, biodiversidad de especies y el patrimonio cultural, lo cual a su vez alimenta un círculo vicioso de contaminación y deterioro de aguas, suelos y atmósfera. 134 Capítulo 6 Energía, medio ambiente y desarrollo sustentable Partes por millón 350 300 250 1850 1875 1900 1925 1950 1975 2000 FIGURA 6.2 Incremento mundial de CO2 en la atmósfera, 1870-1990 Calentamiento global: el aumento en las concentraciones atmosféricas de gases de efecto invernadero (principalmente el dióxido de carbono, CO2) se debe en gran medida a las actividades humanas, particularmente ocasionadas por la generación de energía y el consumo de combustibles fósiles. La figura 6.2 indica la contribución de las actividades humanas en estos gases, lo cual es preocupante y resalta como un problema ambiental global de atención prioritaria. La comunidad científica internacional considera que el crecimiento no controlado de estos gases provocará aumentos de entre dos y cinco grados en la temperatura de la superficie de la Tierra. Aunque a primera vista este aumento de temperatura puede no causar una impresión de alarma, las consecuencias pueden ser desastrosas. El aumento en la temperatura ocasiona un incremento de los niveles de los océanos, alteraciones climáticas (sequías e inundaciones) y pérdidas económicas. Aunado con el problema del calentamiento global, sobresalen también el consumo de energía y la pérdida de suelos. La generación de energía está asociada principalmente con el consumo de combustibles fósiles (petróleo, gas y carbón), los cuales generan gases de efecto invernadero como principal producto de la combustión. La promoción de energías alternativas (solar, eólica, tidal, etc.) es un área de desarrollo tecnológico que cada día adquiere mayor fuerza en el mundo debido a que disminuye la presión en el consumo de recursos naturales y, en consecuencia, las emisiones a la atmósfera. La otra parte de este problema la representan la tala indiscriminada de bosques, los cuales contribuyen al equilibrio atmosférico, ya que consumen bióxido de carbono en sus procesos y emiten oxígeno. La protección de suelos es una de las alternativas más urgentes para que, en consecuencia, se protejan las especies de flora y fauna, se mantenga el ciclo hidrológico y se contribuya con el equilibrio ecológico y ambiental. Existen muchos otros problemas de atención prioritaria, como la generación de residuos tóxicos, la disponibilidad de servicios de salud, la cali- 135 6.3 Breve recuento histórico (The natural step) Futuro Aspectos ambientales Materiales Emisiones y energía y residuos arrollo Des Sistemas económicos Aspectos económicos s u s t en t a b l e Bienes y servicios Aspectos sociales Presente FIGURA 6.3 Desarrollo sustentable dad de vida en las ciudades, la escasez de agua, la contaminación atmosférica, la degradación de las zonas costeras, etc. Sin embargo, existen alternativas exitosas para atacar estos problemas y, al mismo tiempo, continuar promoviendo el desarrollo de las naciones. Estas alternativas bien pueden englobarse dentro del concepto de desarrollo sustentable, el cual se define como: …desarrollo que satisface las necesidades del presente sin comprometer la capacidad de las futuras generaciones para satisfacer sus propias necesidades. Este tipo de desarrollo busca reconciliar las necesidades humanas y la capacidad de carga de los ecosistemas y ser aplicado en toda actividad económica. Así pues, el desarrollo sustentable se basa en tres pilares fundamentales, como se observa en la figura 6.3. Ante los distintos acontecimientos ambientales y energéticos, la industria y la comunidad científica no se han quedado con los brazos cruzados. Las iniciativas adoptadas a lo largo del mundo en las últimas décadas se resumen en la siguiente sección. 6.3 Breve recuento histórico (The natural step) Las iniciativas de gobierno e industria para incorporar criterios ambientales y de sustentabilidad, asociados con los indicios de preocupación por el impacto que tienen la actividad de las empresas, empezaron a tener relevancia en la década de los años setenta (Hawken, 2001). La conciencia ambiental reconocida como tal comienza durante la década de 1970 con la llegada del “Día de la Tierra”, teniendo como efectos la 136 Capítulo 6 Energía, medio ambiente y desarrollo sustentable 1º Era Complacencia 1º Era Más allá de la complacencia 4a Era Desarrollo sustentable 3a Era Eco-eficiencia Diseño sustentable Sistemas de administración integrados Contabilidad de costos ambientales Administración del producto/DFE/LCA* TQEM*/Sistemas de administración ambiental Participación de accionistas Prevención de contaminación/Minimización de desperdicios Control de contaminantes/complacencia Respuesta corporativa Metas de la industria Antes de 1970 sin preparación Ninguna 1970s reactiva Estándares regulatorios 1980s anticipatoria Evitar costos: Reducción de impacto Liderazgo Protección legitimada Ventaja competitiva Partnerships 1990s proactiva Enfoque de centro de ganancias: Eco-eficiencia Desmaterialización Administración ambiental estratégica 2000s alta integración Dirección explícita de metas ambientales: Administración de costo ambiental Productividad de recursos Productos de servicio Marco del natural step FIGURA 6.4 Curva de aprendizaje de sustentabilidad en la industria legislación ambiental en varios países y la primera conferencia ambiental de la ONU en 1972 en Estocolmo, Suecia, en donde se crea el UNEP (United Nations Environment Program). Las cuatro principales eras en la curva de aprendizaje de sustentabilidad en las empresas se muestra en la figura 6.4. A la primera era se le conoce como la “era de la complacencia”, puesto que “una buena actitud corporativa consistía únicamente en obedecer la ley” (Frenkel, 2000). Durante esta primera era, la industria pasó de estar básicamente sin preparación ni metas estratégicas referentes a temas ambientales, a una actitud de complacer los requerimientos legales. El cambio fue básicamente de una actitud inactiva a una reactiva. En 1983 la Comisión Mundial de Medio Ambiente y Desarrollo (World Commission on Environment and Development) crea el concepto de desarrollo sustentable y busca limitar el impacto industrial. La segunda era está marcada por el desastre de 1984 en Bhopal, India; cuando 15 000 galones de químicos altamente nocivos fueron accidentalmente liberados, lo que llevó a las compañías a tener una actitud anticipatoria en su estrategia ambiental. En 1987 se emite el reporte Brundtland (Gro Brundtland, ex primer ministro de Noruega) durante una conferencia de la UNCED (Conferencia de las Naciones Unidas para el Desarrollo y Medio Ambiente), momento en el que se da a conocer la definición de desarrollo sustentable. El enfoque 6.3 Breve recuento histórico (The natural step) 137 estratégico en esta segunda era y el marco ambiental estuvieron canalizados a reducir costos, y al mismo tiempo a reducir los impactos potenciales de factores ambientales, a través de prevención de contaminación y de adelantarse a la legislación. La tercera era de conciencia ambiental comienza en la década de 1990 y se caracteriza por términos tales como eco-eficiencia y de-materialización. Las compañías toman acciones más allá de la prevención de actividades contaminantes, reduciendo residuos dañinos para el medio ambiente, y comienzan a dirigir sus esfuerzos hacia la eco-eficiencia, que atiende al “metabolismo industrial”. Esta tercera era marca un periodo de integración emergente, donde la administración ambiental se reestructura de nuevo, y comienza a ser vista no sólo como un “centro de costo o departamento de costo”, sino como un “centro de ganancias”. Esto se comienza a aceptar como un factor de negocios legítimo, que encamina a la empresa hacia la ventaja competitiva y a la minimización de impactos, de tal modo que se trate de sujetar costos reduciendo materia prima y desechos, y paralelamente se creen oportunidades a través de la innovación. En 1990 el término de eco-eficiencia comienza a ser utilizado por investigadores suizos (Sturm y Schaltegger); en 1992, durante la cumbre de Río de Janeiro, se crea la Agenda 21, y en 1997 se firma el Protocolo de Kyoto. La cuarta era se extiende más allá de la eco-eficiencia y de mejoras continuas en el desempeño ambiental, trascendiendo a una nueva visión guía, que requiere un nuevo marco teórico para la realidad de los negocios. Frenkel sugiere cuatro puntos clave dentro de esta nueva era: 1. Progreso hacia basura “cero residuos”. 2. Sistemas enteros pensantes: dirigir los problemas a todo el sistema. 3. Hacer que los problemas del mundo sean problemas de la compañía. 4. Ir más allá del enfoque de temas medioambientales y enfocarse al desarrollo sustentable. La industria se mueve en un proceso de integración más profundo donde los productos y los procesos se diseñan bajo un criterio ambiental (DfE, “Design for the Environment” y DfD, “Design for Disassembly”); básicamente todo el ciclo de vida de los productos se toma en consideración y se describe como “de cuna a cuna”, en vez de “de la cuna a la tumba”, debido a que el producto nunca llega al estado basura como tal, en cambio, es reutilizado o reciclado en cualquier momento de su ciclo. En esta cuarta era de aprendizaje puede encontrarse la responsabilidad social corporativa (RSC), también llamada responsabilidad social empresarial (RSE). Esta filosof ía y práctica empresarial se define como la contribución activa y voluntaria al mejoramiento social, económico y ambiental por parte de las empresas, generalmente con el objetivo de mejorar su situación competitiva, valorativa y su valor añadido. 138 Capítulo 6 Energía, medio ambiente y desarrollo sustentable La responsabilidad social corporativa va más allá del cumplimiento de las leyes y las normas, dando por supuesto su respeto y estricto cumplimiento. La RSC establece la posibilidad de generar valor para la empresa y, al mismo tiempo, mantener un código de conducta con altos estándares de ética y transparencia. En este sentido, la legislación laboral y las normativas relacionadas con el medio ambiente y los derechos humanos son el punto de partida. Es importante señalar que aunque estas fases del desarrollo corporativo se encuentran en un contexto particular de la historia y el lugar geográfico, no todas las compañías han seguido o siguen este proceso al mismo tiempo, ya que hay muchos factores, tanto macro como micro, que afectan a las diferentes empresas en los diferentes momentos de la historia reciente. Actualmente existe un número significativo de herramientas para la administración sustentable en las empresas, las cuales se indican en la siguiente sección. 6.4 Herramientas de manejo ambiental En la actualidad, un número cada vez mayor de empresas reconoce los beneficios económicos, sociales y ambientales que resultan de la aplicación de herramientas de manejo ambiental para la toma de decisiones. La figura 6.5 presenta un esquema con las principales etapas que conforman el proGenerales Política de desarrollo sustentable Metas Minimización de residuos Ecología industrial Tecnologías limpias, etc. Metodologías Metodologías Toma de decisiones Cumplimiento de legislación Seguridad industrial Protección ambiental, etc. Requerimientos Información EIA LCA GR FIGURA 6.5 Proceso de toma de decisiones bajo un marco de sustentabilidad Seleccionadas para un problema de toma de decisiones específico 6.5 Flujos de materia y energía 139 TABLA 6.1 Herramientas básicas para los SEMA — Análisis de fuerzas impulsoras — Contabilidad ambiental — Análisis de barreras — Instrumentos económicos — Administración y planeación estratégica ambiental — Evaluación de productos y tecnología — Políticas ambientales — Análisis de ciclo de vida — Estructuras de manejo ambiental — Reglas de adquisición — Auditoría ambiental — Auditoría en comunicación ambiental — Educación y capacitación — Factores humanos — Administración de riesgos — Mecanismo de desarrollo limpio — Evaluación ambiental de sitios — Administración basada en ecosistemas — Indicadores ambientales — El paso natural (The natural step, TNS) — Reportajes ambientales — Evaluación de impacto ambiental (EIA) ceso de toma de decisiones bajo una perspectiva de sustentabilidad. Similar a otros modelos de decisiones, el proceso inicia con la definición de objetivos generales, un análisis de posibles metodologías a incorporar y, en consecuencia, los requerimientos y restricciones que formarán parte del sistema de decisión. La parte inferior del diagrama plantea la necesidad de utilizar herramientas y técnicas específicas a cada problema y requerimiento de información, por ejemplo: i. la evaluación de impacto ambiental, ii. el análisis de ciclo de vida o iii. la gestión de riesgos. Existen 22 herramientas básicas (tabla 6.1) para los Sistemas Empresariales de Manejo Ambiental (SEMA). Cada herramienta tiene las siguientes características: • • • Se aplican de la misma manera, habiendo sido estandarizadas o en proceso de ser estandarizadas. Tienen instrucciones específicas a seguir. Deben brindar esencialmente los mismos resultados cuando lo efectúan diversos profesionales en circunstancias similares. 6.5 Flujos de materia y energía Al hablar de balances de materia y energía, invariablemente se toman en cuenta dos leyes fundamentales de la f ísica clásica: la ley de la conservación de la masa y la ley de la conservación de la energía. Ambas leyes indican que la suma algebraica de entradas y salidas de materia o energía en un sistema deben ser iguales a cero. Ésta es una gran herramienta para los es- 140 Capítulo 6 Energía, medio ambiente y desarrollo sustentable Acumulación Entrada Salida Descomposición FIGURA 6.6 Diagrama de balance de materia Fronteras del sistema tudios de impacto ambiental, ya que tiene muchas aplicaciones, como el estudio de los cambios climáticos, la contaminación térmica y la dispersión de contaminantes al aire. La ley de la conservación de la materia dice que cuando una reacción química ocurre, la materia no se crea ni se destruye, solamente se transforma. Este concepto nos ayuda a determinar el destino de la materia, que va de un lugar a otro, por medio de ecuaciones de balance de materia. Para esto, primero se debe definir la región o área que será analizada. Una región de análisis puede variar desde un matraz, donde se efectúa una reacción química, hasta un lago, el espacio aéreo de una ciudad o el mundo entero, de manera que deben crearse fronteras imaginarias alrededor de una región. En la figura 6.6 se observa que se definen tanto el flujo de materiales que entran y salen de la región, como la acumulación y descomposición que ocurren en la misma. Una sustancia que entra a la región de estudio puede seguir tres caminos diferentes. Una parte puede salir de la región sin cambio alguno, otra parte se puede acumular dentro del área de estudio y la parte restante se puede convertir en alguna otra sustancia al sufrir una reacción química. De manera que para cualquier sustancia que se analice se aplica la ecuación de balance de materia: Tasa de Tasa de Tasa de Tasa de entrada salida descomposición acumulación (Ec. 6.1) Se pueden realizar algunas simplificaciones a la ecuación 6.1 cuando se asumen condiciones de régimen permanente o de equilibrio. En un sistema de régimen permanente la tasa de entrada de materia es igual a la tasa de salida, debido a que la tasa de acumulación y la tasa de descomposición son iguales a cero. Algunos ejemplos de sustancias que se estudian en modelo de régimen permanente son sólidos que se disuelven en el agua, metales pesados que se encuentran en la tierra y dióxido de carbono presente en el aire. Observe el sistema de régimen permanente en la figura 6.7. El sistema estudiado puede tratarse de un estanque. Una de las entradas al sistema es una corriente de agua que fluye a una tasa Qc (volumen/ tiempo). Esta corriente tiene una concentración de contaminante Cc (masa/volumen). Otra entrada es una corriente de desechos que fluye a una 141 6.5 Flujos de materia y energía Tasa acumulada 0 Tasa descomp 0 Corriente Qc Qm Cc Cm Mezcla Qd Q Flujo (V/t) C Concentración (m/V ) Cd Desechos Tasa entrada Tasa salida CsQs CwQw CmQm FIGURA 6.7 Sistema de régimen permanente tasa Qd con una concentración de contaminante Cd. La salida es una mezcla con tasa de flujo Qm y concentración de contaminante Cm. Al estar en un sistema de régimen permanente, el balance de materia basado en la ecuación 6.1 es: CcQc CdQd CmQm (Ec. 6.2) Ejemplo 6.1 Se tiene un río alimentado por una corriente contaminada que fluye a 4 m3/s y tiene una concentración de contaminante de 8 mg/L. Además, existe una corriente de desechos que entra al río a 1 m3/s con una concentración de contaminantes de 10 mg/L. Si se supone que los contaminantes no reaccionan, ¿cuál es la concentración de contaminante a la salida del río? Solución Cm (CcQc CdQd/Qm (CcQc CdQd)/(Qc Qd) Al sustituir los valores del ejemplo: Cm (8 mg/L * 4 m3/s 10 mg/L * 1 m3/s)/(4 m3/s 1 m3/s) Cm 8.4 mg/L Balances de energía: una definición de energía es la capacidad de realizar trabajo, donde la energía se puede expresar como el producto de una fuerza y el desplazamiento de un objeto causado por esa fuerza. Sin embargo, la segunda ley de la termodinámica dicta que cuando se realiza un trabajo, invariablemente hay ineficiencia. Una porción de la energía del proceso acabará como desperdicio en forma de calor. En la figura 6.8 se observa una planta generadora de potencia. 142 Capítulo 6 Energía, medio ambiente y desarrollo sustentable Gases de desecho Electricidad Vapor Generador Caldera Turbina Entrada agua fría Agua Enfriamiento del agua Combustible Bomba de alimentación de caldera Aire Condensador Salida de agua caliente FIGURA 6.8 Planta generadora de potencia Para cualquier sistema se observa lo siguiente: neto E total de masa E total de masa E total que cruza Cambio de E en sistema el sistema como Q y W entrando al sistema dejando el sistema (Ec. 6.3) Un sistema donde la materia y la energía fluyen a través de las fronteras se denomina abierto. Para los sistemas cerrados, no hay movimiento de masa que pase por las fronteras. La suma de todas las formas microscópicas de energía en un sistema se conoce como energía interna y se representa con el símbolo U. El total de energía E que contiene una sustancia se describe como la suma de su energía interna U, su energía cinética KE y su energía potencial PE. Así, llegamos a la siguiente ecuación: E U KE PE (Ec. 6.4) En muchos casos, la energía neta que se suma a un sistema ocasiona un incremento en la temperatura. La cantidad de energía que se necesita para elevar en 1C una unidad de masa, se conoce como calor específico. Para líquidos o sólidos el calor específico se puede considerar como una constante que varía ligeramente con la temperatura; sin embargo, para los gases 6.5 Flujos de materia y energía 143 este concepto se complica. Parte del calor que se aplica a un gas ocasiona un aumento en su temperatura, otra parte ocasiona un aumento en el volumen. Es por esto que se introduce el concepto de la entalpía H. La entalpía de una sustancia se define de la siguiente manera: H U PV (Ec. 6.5) Donde U es la energía interna, P es la presión y V el volumen al que se encuentra el gas. La entalpía de una unidad de masa de cualquier sustancia depende sólo de la temperatura. Cuando un proceso ocurre sin observar cambios de volumen, la relación entre la energía interna y el cambio de temperatura es: ΔU mcvΔT (Ec. 6.6) Donde cv es el calor específico a volumen constante. La ecuación para cambios que ocurren cuando se tiene presión constante es: ΔH mcpΔT (Ec. 6.7) Donde cp es el calor específico a presión constante. Ejemplo 6.2 ¿Cuánto tiempo se llevará calentar agua en un calentador eléctrico de agua de 30 gal si se quiere elevar la T de ésta de 40°F a 120°F y se sabe que el calentador tiene una potencia de 6 kW? Suponga que toda la energía eléctrica se convierte en Q en el agua y que tanto la energía necesaria para elevar la T del tanque como las pérdidas de Q del tanque al exterior son despreciables. Energía suministrada 6 kW * ΔT h 6ΔT kWh Solución Debido a que no hay pérdida de energía en el proceso, se tiene que la salida de energía es igual a cero. El cambio en energía almacenada corresponde al agua que se caliente de 40°F a 120°F. Considerando además que el agua pesa 8.34 lb/gal, se tiene: Cambio en la energía almacenada mcΔT 30 gal * 8.34 lb/gal * 1 Btu/lb°F * (120 – 40)°F 20 103 Btu Al igualar la energía suministrada con el cambio en la energía almacenada: 6ΔT kWh * 3412 Btu/kWh 20 103 Btu ΔT 0.9769 h 144 Capítulo 6 Energía, medio ambiente y desarrollo sustentable Los balances de materia de energía son una de las piezas fundamentales para la aplicación de la mayoría de las herramientas de administración ambiental. En particular, estos balances permiten llevar a cabo análisis de ciclo de vida, evaluaciones de impacto ambiental y gestión de riesgos, tal y como se presenta en las siguientes secciones. 6.6 Análisis de ciclo de vida El análisis de ciclo de vida (LCA, por sus siglas en inglés), es un método para evaluar “toda la vida de un producto, proceso o actividad”. Esto incluye las siguientes etapas: adquisición de materia prima, manufactura, distribución y venta, uso, reuso y mantenimiento, reciclaje y manejo de los desperdicios. Esto se hace con el objetivo de crear productos que sean menos dañinos al medio ambiente. Por otra parte, es importante destacar que además de “productos”, se pueden analizar sistemas de servicios. “La creciente preocupación de la importancia que tiene la protección ambiental, y los posibles impactos asociados con un producto que se manufactura y consume, han aumentado el interés en el desarrollo de métodos que ayuden a estudiar y reducir tales impactos. Una técnica que se ha desarrollado para este propósito es el análisis de ciclo de vida” (ISO 14040:1997). En general, las categorías de impacto ambiental que requieren de mayor consideración son el uso de recursos, la salud humana y la afectación ecológica. Un análisis de ciclo de vida puede traer consigo los siguientes beneficios para: • • • • Identificar oportunidades en donde se puedan mejorar aspectos ambientales de los productos en varias etapas de su vida. Tomar decisiones en la industria o el gobierno (e.g., planeación estratégica, diseño de productos, etc.). Seleccionar de indicadores relevantes para evaluaciones ambientales. Diseñar mercadotecnia (etiquetas de “ambientalmente amigable”). El alcance, las fronteras y el nivel de análisis de un LCA dependen del propósito del estudio. La profundidad de un estudio de LCA puede diferir considerablemente dependiendo de las metas a las que se quiere llegar. Las limitaciones de un análisis de ciclo de vida son: • • Los supuestos y parámetros utilizados en el estudio pueden ser subjetivos. Los modelos utilizados para el análisis de inventarios o para analizar los impactos ambientales están limitados por sus supuestos y pueden no estar disponibles para todos los impactos o aplicaciones. 6.6 Análisis de ciclo de vida • • 145 Los resultados del LCA enfocados en asuntos globales y regionales pueden no ser apropiados para aplicaciones locales; es decir, las condiciones locales pueden no estar bien representadas por condiciones globales o regionales. La precisión de un estudio de LCA puede estar limitada por la accesibilidad o disponibilidad de datos relevantes o por la calidad de los datos. Un LCA consiste de tres componentes: 1. Un inventario de desperdicios, emisiones, materia prima y energía asociados al ciclo de vida entero del producto, desde que se extrae la materia prima hasta su disposición final como basura. 2. Un análisis de los impactos ambientales asociados a los desperdicios, emisiones y al uso de materia prima y energía. 3. Un análisis para el mejoramiento, donde se busquen mecanismos para reducir los impactos ambientales adversos. Lamentablemente, de estos tres componentes sólo la etapa de inventario está bien desarrollada. El análisis de los impactos ambientales aún es muy conceptual y la implementación de técnicas de mejoramiento está limitada por las carencias que hay en las herramientas para evaluar los impactos en un ciclo de vida. En la figura 6.9 se observa la estructura de un LCA. Observe que todas las etapas deben interpretarse constantemente para entender el sentido exacto del estudio. Definición de objetivos y alcances Análisis de inventarios FIGURA 6.9 Metodología para el análisis de ciclo de vida Análisis de impacto ambiental Interpretación 146 Capítulo 6 Energía, medio ambiente y desarrollo sustentable Emisiones Emisiones Energía Materiales Materia prima Emisiones Energía Materiales Manufactura de material Manufactura de producto Energía Materiales Uso del producto Disposición del producto Reciclaje de producto Re-manufactura de producto Reciclaje de materiales FIGURA 6.10 Análisis de ciclo de vida de un producto Para la primera etapa, el inventario, se deben considerar todas las entradas y salidas de energía, materia y emisiones en todas las etapas del producto. Sin embargo, esto no se puede hacer sin antes haber definido fronteras. Esto es de particular importancia, ya que cuando cualquier parte del sistema cambie, otras partes pueden verse afectadas. Una vez que se han establecido las fronteras, entonces se estima el total de emisiones generadas en el sistema. En la figura 6.10 se observa un sistema limitado por fronteras (punteado azul) y que muestra todas las “entradas” y “salidas” que deben considerarse. Posteriormente, una vez que se han acumulado las emisiones generadas en la vida del producto por categorías, se procede a hacer el análisis del impacto ambiental. En esta segunda etapa se observan cuáles son las categorías con mayor impacto. Algunas de las categorías más importantes son: • • • • • Índice de calentamiento global (GWP). Potencial de degradación del ozono estratosférico. Creación de ozono fotoquímico. Demanda química y biológica de oxígeno. Volúmenes críticos de aire y agua. Sin embargo, es importante considerar que para cada caso de estudio la categoría más importante puede variar. Para algunas ciudades puede ser más importante evitar la formación de ozono fotoquímico, mientras que para otros casos la demanda química y biológica de oxígeno define de mejor manera la afectación que se está haciendo al medio ambiente. Finalmente, en la etapa de mejoramiento la implementación de una buena estrategia o política ambiental depende de la precisión de los dos pasos anteriores. Solamente cuando se tiene una comprensión exacta de un 6.7 Gestión de riesgos 147 sistema se sabe cuáles son las fuentes de afectación que se quieren evitar. De otra forma, las alternativas que se adopten pueden ser poco precisas o tener un costo muy elevado para que comiencen a reflejar un cambio positivo importante en el impacto ambiental. 6.7 Gestión de riesgos Una de las tendencias más importantes desde los años ochenta, en cuanto a política ambiental se refiere, es la inclusión del análisis de riesgos y la gestión de riesgos. El estudio del riesgo es indispensable cuando se trata el tema de la salud pública. Originalmente se asumía que para cada contaminante existe un límite permisible de tolerancia por parte del cuerpo humano, y que la exposición a concentraciones menores a estos límites no produciría ningún daño. Sin embargo, se sospecha que muchas sustancias pueden generar cáncer. Es por eso que ahora se mantiene el supuesto que la exposición mínima a tales sustancias cancerígenas crea riesgo. Estrictamente, el riesgo se define como la probabilidad de sufrir un daño o una pérdida. Cuando un daño se puede medir (personas al mes heridas por accidentes), el riesgo se calcula mediante la probabilidad de que ocurra una acción multiplicado por la severidad del daño: Riesgo (Probabilidad) * (Severidad del daño) (Ec. 6.8) Sin embargo, en ocasiones las consecuencias negativas de un evento no se pueden cuantificar. Un ejemplo de lo anterior es la muerte; nadie puede estar poco o muy muerto. Otro ejemplo es el cáncer, se tiene o no se tiene cáncer. Para tales eventos, el riesgo se define como la probabilidad de que ocurra el daño. Comúnmente, los términos “riesgo” y “peligro” son confundidos. “Peligro” es un término descriptivo que se refiere a la capacidad intrínseca que tiene algo de causar daño. El peligro es la fuente del riesgo. Una sustancia dañina a la salud representa peligro; sin embargo, esa sustancia no implica ningún riesgo hasta que haya exposición. Desde la perspectiva de la industria, los factores de riesgo que típicamente se consideran son riesgos de trabajo por: operación de equipos, manejo de sustancias y ambiente de trabajo. El problema al que se enfrenta toda industria consiste en determinar con precisión el “máximo” nivel permisible o el valor al cual no se observan efectos adversos a la salud o al medio ambiente. Hoy en día, las empresas a menudo utilizan la evaluación de riesgos ambientales para guiar sus decisiones de negocios, incluyendo acciones como (Charles A. Puttinger, Procter & Gamble, E.U.): • La elección de sustancias alternativas (por ejemplo, más seguras, más baratas o más efectivas). Capítulo 6 Energía, medio ambiente y desarrollo sustentable Cancerígeno modelo lineal —sin umbral— Cancerígeno modelo no-lineal —sin umbral— Riesgo 148 No cancerígeno Umbral (threshold) Dosis FIGURA 6.11 Evaluación dosis-respuesta • • La evaluación de sus operaciones (por ejemplo, desde la perspectiva de sus emisiones a fin de reducirlas). El establecimiento de prioridades de remediación de sitios contaminados (para alcanzar un nivel de riesgo aceptable). Típicamente, la metodología para la evaluación de riesgos considera cuatro pasos fundamentales: 1. Identificación de peligros: proceso para determinar si una sustancia química está relacionada con efectos adversos en la salud. 2. Evaluación dosis-respuesta: • • Relación entre dosis de sustancia e incidencia de un efecto (de salud) adverso. Respuesta cancerígena o no cancerígena. Experimento de corto plazo (agudo) o largo plazo (crónico). Incluye método para extrapolar datos animales a los seres humanos. (Véase figura 6.11.) 3. Evaluación de la exposición: determinación del tamaño y naturaleza de la población expuesta. Periodo de la exposición y concentración del contaminante. Se consideran al menos tres factores: el comportamiento del contaminante en el ecosistema, las cantidades a la que está expuesta la población por ingesta, respiración o contacto con la piel y, finalmente, los factores generales de la población. (Véase figura 6.12.) 4. Caracterización del riesgo: considera los tres pasos anteriores y genera un estimado de la magnitud del problema. 149 6.7 Gestión de riesgos Dirección predominante del viento Medio de transporte (aire) Punto de exposición Fuente de descarga (volatización) Ruta de exposición por inhalación Ruta de exposición por ingestión Vía de exposición por agua Vía de exposición por aire Fuente de descarga (filtraciones de suelo) Tabla de agua Medio de transporte (agua en la superficie) Flujo de agua subterránea FIGURA 6.12 5. Gestión de riesgos: evalúa las posibles alternativas para mitigar o enfrentar el riesgo. La gestión de riesgos se define como: …evaluar alternativas… acciones y seleccionar entre éstas… tomando en cuenta información política, social, económica y técnica con la información relacionada con el riesgo para desarrollar, analizar y comparar opciones regulatorias, y elegir la respuesta más apropiada ante un riesgo potencial a la salud o al medio ambiente (The Environmental Resources Management Group). Para la Asociación Nacional de la Industria Química sus objetivos específicos en el manejo de sustancias de la industria son: 1. Respaldar la competitividad de la industria a través de un programa de mejora continua en aspectos relacionados con el medio ambiente, la seguridad y la higiene. 2. Crear una imagen positiva de la industria que redunde en la disminución de la presión ejercida por el gobierno y la sociedad. 3. Evitar posibles acciones unilaterales de otros países que obstaculicen las exportaciones del sector bajo el argumento de subsidios verdes. 150 Capítulo 6 Energía, medio ambiente y desarrollo sustentable Novo Nordisk Red de entrega para NovoSlam Ácido sufúrico Kemira Componentes ecológicos Azufre líquido Lago Tisso Refinería statoil Residuos sólidos para uso en agricultura y granja de peces Gas Planta de tratamiento Invernaderos Fiordo Vapor Agua de desecho Alabastro Calor de desecho Vapor Gas Agua de enfriamiento Fábrica de paneles de pasta cerámica Gyproe Planta de potencia ASNAES Cenizas volátiles, residuos sólidos Calor de desecho Emisiones de aire Calefacción al municipio Transf. de materiales Extracción y/o desecho de agua Notas: (1) Esta figura no está dibujada a escala, ni pertenece a un sitio geográfico exacto. (2) Residuos inusuales resultado de todas las actividades del ecoparque industrial son liberados eventualmente en la biosfera. FIGURA 6.12 4. Convertir la responsabilidad integral en una herramienta muy poderosa en la mercadotecnia de las industrias. 5. Procurar, en primera instancia, el cumplimiento cabal de la legislación vigente. 6.8 Evaluación de impacto ambiental Impacto ambiental es el efecto causado por las acciones del hombre sobre el medio ambiente. Los impactos o efectos de las acciones de desarrollo pueden ser favorables o desfavorables (para el ecosistema o una parte del mismo). El impacto ambiental está constituido tanto por los cambios en las características ecológicas o “impacto ecológico”, como por los aspectos que caen en los “impactos socioeconómicos y culturales” del ambiente humano. Ambos tipos de impacto van en detrimento de la productividad del ecosistema y de su capacidad para amortiguar los procesos degenerativos 6.8 Evaluación de impacto ambiental 151 que impiden el desarrollo al disminuir la calidad de vida. Por esta razón, la mayoría de las evaluaciones de impacto ambiental hacen énfasis en los impactos negativos. También se tiene la siguiente definición: “Modificación del ambiente ocasionada por la acción del hombre o de la naturaleza” (Art. 3o., fracc. XIX, Ley General del Equilibrio Ecológico y Protección al Ambiente, LGEEPA). En toda evaluación de impacto ambiental se deben clasificar los impactos para comprenderlos mejor: Impacto primario (directo o de primer orden): cualquier efecto en el ambiente biof ísico o socioeconómico que se origina de una acción directa relacionada con el proyecto. Impacto secundario (indirecto o inducido): efectos sobre el ambiente biof ísico y socioeconómico que se desprenden de la acción, pero no se inician directamente por la misma. Impacto acumulativo: los efectos de este impacto se suman directamente, o en forma sinérgica, a condiciones ya presentes en el ambiente o a las de otros impactos. Impacto a corto plazo: aquel cuyos efectos significativos se presentan en periodos relativamente breves. Impacto a largo plazo: es aquel cuyos efectos significativos ocurren en lapsos distantes al inicio de la acción. Impacto inevitable: aquel cuyos efectos no pueden evitarse total o parcialmente dadas las características específicas del proyecto y que, por lo tanto, requiere de la implantación inmediata de acciones correctivas. Impacto irreversible: estos impactos provocan una degradación en el ambiente de tal magnitud, que rebasan la capacidad de amortiguación y recuperación de las condiciones originales. Impacto residual: es aquel cuyos efectos persistirán en el ambiente, por lo que requieren de la aplicación de medidas de atenuación que consideren el uso de la mejor tecnología disponible. Impacto reversible: sus efectos en el ambiente pueden ser mitigados de forma tal, que se restablezcan las condiciones preexistentes a la realización de la acción. No hay una definición general y aceptada de EIA. Gilad (precursor de esta disciplina) la define como: “el examen sistemático de las consecuencias ambientales probables de proyectos, programas, planes y políticas propuestas”. Los resultados de una EIA se integran y presentan en un documento conocido como “Declaración de Impacto Ambiental” o “Manifestación de Impacto Ambiental”. Estos documentos muestran las implicaciones ambientales, sociales y de salud de diferentes alternativas de acción. 152 Capítulo 6 Energía, medio ambiente y desarrollo sustentable Objetivos de una evaluación de impacto ambiental: • • • Identificar los efectos que puede causar un proyecto sobre el medio ambiente. Estimar la magnitud de los efectos. Prevenir los efectos sobre el medio y evitarlos o minimizarlos. Una de las principales críticas a las EIA es que causan costos y demoras considerables. Se deben tomar en cuenta características relacionadas con el tamaño del proyecto, el costo y los requerimientos de energía, entre otros. Para ilustrar en qué se aplican evaluaciones de impacto ambiental, a continuación se presentan obras o actividades sujetas a dicho procedimiento (Art. 28, LGEEPA): 1. Obras hidráulicas, vías generales de comunicación, oleoductos, gasoductos, carboductos y poliductos. 2. Industria del petróleo, petroquímica, química, siderúrgica, papelera, azucarera, del cemento y eléctrica. 3. Exploración, explotación y beneficio de minerales y sustancias reservadas a la Federación en los términos de las leyes Minera y Reglamentaria del Artículo 27 Constitucional en Materia Nuclear. 4. Instalaciones de tratamiento, confinamiento o eliminación de residuos peligrosos, así como residuos radiactivos. 5. Aprovechamientos forestales en selvas tropicales y especies de difícil regeneración. 6. Plantaciones forestales. 7. Cambios de uso del suelo de áreas forestales, así como en selvas y zonas áridas. 8. Parques industriales donde se prevea la realización de actividades altamente riesgosas. 9. Desarrollos inmobiliarios que afecten los ecosistemas costeros. 10. Obras y actividades en humedales, manglares, lagunas, ríos, lagos y esteros conectados con el mar, así como en sus litorales o zonas federales. 11. Obras en áreas naturales protegidas de competencia de la Federación. 12. Actividades pesqueras, acuícolas o agropecuarias que puedan poner en peligro la preservación de una o más especies o causar daños a los ecosistemas. 13. Obras o actividades que correspondan a asuntos de competencia federal, que puedan causar desequilibrios ecológicos graves e irreparables, daños a la salud pública o a los ecosistemas, o rebasar los límites y condiciones establecidos en las disposiciones jurídicas relativas a la preservación del equilibrio ecológico y la protección del ambiente. 6.9 Energías renovables 153 6.9 Energías renovables Afortunadamente, existen recursos energéticos que son casi inagotables. En tal categoría se incluyen las energías geotérmicas, de la marea y solar en todos sus aspectos: gradientes térmicos del océano, corrientes oceánicas, biomasa, viento, hidroelectricidad y la radiación solar directa. Aun cuando tales fuentes son inagotables en cuanto a que nos proveerán de energía por cualquier extensión de tiempo considerable, la cantidad de energía que se puede extraer de ellas es muy limitada. Cualquier persona ha sentido en alguna ocasión los efectos de los rayos solares sobre el mismo, o sobre los objetos expuestos a ellos. Un ejemplo de lo anterior puede ser una lámina que ha estado bajo los rayos del Sol, ésta nos quema cuando la tocamos. Además, muchas culturas alrededor del mundo se han desarrollado con ayuda de la luz y el calor provenientes del Sol. Si toda esta energía se pudiera aprovechar en beneficio nuestro, ya sea en aspectos o actividades de nuestra vida diaria, como cocinar y refrigerar alimentos, obtener agua potable o calentar agua para bañarnos, iluminarnos en la noche o ver televisión, el impacto ambiental que se tiene debido a la generación de energía se reduciría considerablemente. Existen equipos que pueden transformar esta radiación solar en energía eléctrica o incluso mover un automóvil con biocombustibles, y lo mejor de todo, con un daño mínimo al ambiente. Mientras la humanidad exista en la Tierra esta energía estará disponible para ser usada. En términos generales, podemos considerar a la energía solar como nuestra fuente energética total, porque excluyendo la geotermia, todas las demás fuentes se derivan de la radiación de esta estrella. El Sol se encarga de calentar la atmósfera terrestre, causando gradientes de temperatura, lo que trae consigo diferencias de presión y, como consecuencia, los vientos, origen de la energía eólica. El Sol también evapora el agua, que bajo las condiciones atmosféricas propicias se precipita en forma de lluvia en zonas más altas, obteniendo con esto energía potencial, la cual puede ser aprovechada con tecnologías de turbinas hidráulicas para generar electricidad o accionar equipos mecánicos. También el proceso de fotosíntesis de los vegetales aprovecha como fuente energética al Sol, llevando a cabo reacciones químicas, las cuales la transforman en energía almacenada dentro de éstos y puede ser aprovechada mediante combustión directa o transformada a otros combustibles, como el metanol y el etanol. Al ser el reino vegetal el principio de las cadenas alimenticias en los ecosistemas, la energía contenida en ésta es transferida al ser consumidas por los seres herbívoros y así a los diversos aprovechamientos de la biomasa que se pueden obtener. La inmensa cantidad de energía eléctrica que otorgan las plantas generadoras de energía y la dependencia que estos sistemas tienen con combustibles fósiles es tal, que no existe tecnología energética alternativa que fun- 154 Capítulo 6 Energía, medio ambiente y desarrollo sustentable Residuos no renovables 0.2% Gas natural 20.9% Nuclear 5.9% Carbón 26.5% Fuentes renovables 12.4% Petróleo 34.1% Hidro 2.2% Combustibles y residuos renovables 9.6% Otros* 0.6% *Geotérmica, solar, eólica, maremotriz. Los porcentajes parciales han sido redondeados. FIGURA 6.14 Distribución de la oferta de energía primaria mundial en el año 2007 a partir de distintas fuentes (total 12 026 Mtoe). Fuente: AIE, 2009 cione como sustituto en los próximos años. Un análisis al panorama internacional indica que tomará varios años como mínimo para que nuevas tecnologías de generación eléctrica se diseñen, construyan e implementen. En el año 2007, el Suministro Total de Energía Primaria (TPES, por sus siglas en inglés) fue de 12 026 Mtoe*, de los cuales 12.4% o 1492 Mtoe fueron producidos a partir de fuentes renovables de energía. La figura 6.14 muestra también que los combustibles fósiles continúan siendo la principal fuente de energía, con más de 80% del total. Finalmente, la energía nuclear se ubica en 5.9% del total mundial (AIE, 2009). El reporte REN21, elaborado por un comité de expertos internacionales con la colaboración de varios investigadores en diversos países, es una de las referencias internacionales sobre el estado de las energías renovables en el mundo. Los principales resultados de este reporte indican que a pesar de la importante disminución en la actividad económica mundial, las inversiones en energías renovables han mantenido su crecimiento. En respuesta a la crisis económica, algunos países han dirigido estímulos para la creación de empleos verdes, originados por las necesidades de generación a partir de fuentes renovables de energía. La capacidad mundial de generación de energía a partir de fuentes renovables (excepto hidráulica) alcanzó la cifra de 280 000 MW en el año 2008, 16% por encima de los 240 000 MW reportados en el año 2007. Este incremento en la capacidad *toe: se define como tonelada equivalente de petróleo (tonne of oil equivalent). Esta unidad es equivalente a 107 kcal (41.868 GJ) 6.10 Ecología industrial 155 de generación sigue siendo motivado, en gran parte, por dos preocupaciones: el cambio climático y la seguridad energética. 6.10 Ecología industrial La ecología industrial (EI) es una disciplina científica a macroescala encargada de analizar los sistemas industriales de forma integral, es decir, considerando no sólo al sistema de forma aislada, sino tomando también en cuenta su entorno, tanto tecnológico como ambiental, y las interacciones que existen entre ambos. Su objetivo principal es la optimización en el manejo de flujos de materiales y energía, utilizando de forma más eficiente los recursos y evaluando los factores económicos que inciden en su implementación. El surgimiento de esta rama de estudio se da debido a la creciente necesidad de conciliar la esfera económica con la ambiental. Por un lado, se buscaba minimizar el efecto negativo de las actividades industriales hacia el medio, y por otro, mejorar el uso de los recursos para reducir los costos. La EI agrega ambos aspectos, permitiendo con ello contribuir a la iniciativa de desarrollo sustentable que actualmente se busca instituir. Uno de los pilares de la ecología industrial es el rechazo al concepto de desperdicio. Esto significa que, de alguna forma, todo puede ser reutilizado, generalmente con muy buenos resultados. Lo que se busca en este sentido es darle un valor a todo lo que se genera en un proceso industrial, no importa que se trate de un desecho, ya que éste puede llegar a ser útil para un proceso completamente diferente. De este modo se elimina la necesidad de verter los residuos en el ambiente y se reduce la extracción de materias primas. Una herramienta crucial para poder desarrollar la EI es el análisis de los flujos de materiales y energía que existen dentro del sistema que se desea evaluar. Se debe tener un control estricto de todos los flujos involucrados, para que así se les aproveche al máximo. No hay que perder de vista que pérdidas imprevistas de materiales o de energía pueden llegar a impactar los costos de manera significativa, dependiendo del tipo de flujo que se trate. La ecología industrial examina formas de reconfigurar la actividad industrial en respuesta al conocimiento de las implicaciones que tiene sobre el ambiente, fomentando el desarrollo de métodos de producción más orientados hacia los sistemas. En ese contexto, un concepto importante es la simbiosis industrial, que se refiere al intercambio de flujos de materiales y de energía entre organizaciones individuales localizadas muy cercanamente unas de otras. Para poder tener simbiosis industrial y procesos a macroescala, es necesario que individualmente cada empresa instituya sus propias prácticas ambientalmente favorables e implemente medidas que permitan una pos- 156 Capítulo 6 Energía, medio ambiente y desarrollo sustentable terior interacción con otras entidades, tal y como se comportaría un ser vivo dentro de un ecosistema. La manifestación más representativa de la ecología industrial son los parques eco-industriales, los cuales se definen como comunidades de negocios que cooperan entre sí y con la comunidad local para compartir recursos eficientemente (información, materiales, agua, energía, infraestructura y hábitat natural), y así conseguir ganancias económicas, mejoras en la calidad ambiental y desarrollo en los recursos humanos involucrados. El mejor ejemplo de este tipo de sistemas es el Parque de Kalundborg, en Dinamarca (figura 6.13). Los principales componentes del sistema son cuatro grandes empresas: 1. Statoil: refinería de petróleo. 2. Asnæs Power Station: central eléctrica, con base en la incineración de carbón. 3. Gyproc: empresa manufacturera de cartón de yeso (gypsum). 4. Novo Nordisk: empresa farmacéutica líder en la producción de insulina, penicilina y enzimas. Existen en total once enlaces f ísicos que vinculan a dichas empresas entre sí, compartiendo una red de usuarios dentro del distrito. A continuación se mencionan algunos de los intercambios que se llevan a cabo en este complejo industrial: • • • • La refinería y la central eléctrica intercambian vapor, gas y agua para enfriamiento. El calor de desecho de la central se distribuye a todo el distrito, a invernaderos y a una granja de peces. Asnæs Power Station le transfiere a Gyproc dióxido sulfúrico, a partir del cual se obtiene sulfato de calcio, la principal materia prima utilizada en la elaboración del gypsum. Una planta de ácido sulfúrico recibe de la refinería compuestos líquidos que contienen azufre. Este parque eco-industrial es tan sólo uno de varios que operan en el mundo, principalmente en Estados Unidos y Europa. Dentro de éstos se encuentran los complejos de Cape Charles, el Green Institute y Londonderry. Las compañías que conforman un parque eco-industrial tienen la ventaja de poder compartir costos de infraestructura y servicios; por ejemplo: manejo de residuos, capacitaciones y reclutamientos, instalaciones de esparcimiento, medios de transporte y otras actividades que son comunes a las distintas organizaciones. Es evidente que realizar este tipo de prácticas es muy favorable para las empresas, pues conjuntamente dan una imagen ecológicamente acep- 6.11 Sistemas empresariales de manejo ambiental 157 table, ayudan al medio y se benefician por el ahorro en costos que esto genera per se. Con el paso del tiempo ha ido aumentando la cantidad de corporaciones que consideran a la ecología industrial como una base para operar su negocio. Ésta es, sin duda, la tendencia que deberá seguir el desarrollo industrial si se desea que las actividades humanas se desenvuelvan en un ambiente sostenible. 6.11 Sistemas empresariales de manejo ambiental Los sistemas empresariales de manejo ambiental (SEMA’s) no pretenden administrar al ambiente, sino administrar corporaciones, instituciones e individuos que afectan al medio. Estos sistemas ayudan a las organizaciones a tratar temas ambientales de manera sistemática, eficiente y efectiva. Alrededor de 40 000 organizaciones alrededor del mundo han incorporado algún SEMA que se ha registrado bajo estándares internacionales. Tales estándares se encuentran contenidos en ISO 14001, que es un estándar internacional que define a los SEMA como: “la parte del sistema administrativo que incluye estructura organizacional, planeación, actividades, responsabilidades, procedimientos, procesos y recursos para desarrollar, implementar, lograr, revisar y mantener la política ambiental”. La Asociación Canadiense de Estándares (ACE) establece que: “el diseño de un sistema empresarial de manejo ambiental es un proceso de planeación continuo e interactivo que consiste en definir, documentar y mejorar continuamente los requerimientos de capacidad, como son: recursos, entrenamiento, sistemas de información precoces y procedimientos operativos, documentación y criterios de medición y monitoreo”. Un sistema empresarial de manejo ambiental es una parte integral de la administración general de una organización, este sistema se diseña para mejorar el rendimiento ambiental mediante: • • • • • • • Establecimiento de metas y objetivos (política). Identificación, obtención y organización de gente, habilidades y conocimientos, tecnología, finanzas, y otros recursos necesarios para lograr las metas y los objetivos. Identificación y evaluación de opciones para alcanzar las metas. Evaluación de riesgos y prioridades. Implementación de las opciones seleccionadas. Auditorías del rendimiento para efectuar los ajustes necesarios mediante la retroalimentación al sistema. Aplicación de las herramientas del sistema requeridas. Las secciones anteriores tan sólo representan un breve resumen sobre el contexto mundial en torno a asuntos ambientales y energéticos, las principales herramientas ambientales, la respuesta de la industria en las últi- 158 Capítulo 6 Energía, medio ambiente y desarrollo sustentable mas décadas y una serie de metodologías y herramientas específicas que permiten al ingeniero prepararse para uno de sus principales retos: convertir al medio ambiente en un socio inseparable del éxito empresarial y el desarrollo sustentable. EJERCICIOS PROPUESTOS 7 3 1. Balances de materia y energía. A un lago, cuyo volumen es de 1 × 10 m , le llega una co3 rriente de agua limpia (sin contaminantes) a razón de 65 m /s. Pero también recibe los de3 sechos que arroja una fábrica a razón de 6 m /s, estos desechos llegan al lago a través de una corriente que tiene un contaminante no conservativo cuya concentración es de 80 mg/L. Asuma una constante K de 0.15/día. a) Elabore un diagrama que represente la situación. b) Calcule la concentración del contaminante cuando se fija el régimen permanente. Asuma que el contaminante está perfectamente mezclado en el lago. 2. Gestión de riesgos. Suponga que una persona que pesa 85 kg consume 2.5 L de agua durante 70 años y que ésta tiene una concentración de cloroformo de 0.10 mg/L. a) ¿Cuál será el riesgo incremental de que esta persona adquiera cáncer? b) Si en una ciudad 550 000 personas tomaran 2.5 L de agua al día y todas ellas tuvieran una esperanza de vida de 70 años, ¿cuántos casos extra de cáncer se esperarían al año? La tasa de mortalidad a causa de cáncer (todas las formas) en Estados Unidos es de 193 por cada 100 000 personas al año. Compare este resultado con los números de cáncer extras al año causados por el cloroformo en el agua potable. 3. Balances de materia y de energía a régimen no permanente. Imagine que las autoridades deciden evitar que la tubería del drenaje descargue en el lago del ejercicio 2, ya que consideran que la concentración de contaminante que existe en dicho lago es muy grande. La co3 rriente que entra seguirá teniendo un flujo de 4 m /s y una concentración de 12 mg/L. a) Considerando que la mezcla es perfecta, calcule la concentración del contaminante en el lago siete días después de haber quitado el drenaje. b) ¿Cuál será la nueva concentración en condiciones de régimen permanente? Recuerde que el volumen del lago es de 107 m3 y que la K = 0.25/día. 4. Ingrese a la página web del Centro de Análisis de Ciclo de Vida (www.centrolca.org) e investigue algunos casos de éxito en Latinoamérica en donde el LCA ha servido como herramienta para la toma de decisiones. Si está interesado en este tema puede registrarse en esta página para recibir información periódica sobre proyectos, publicaciones y conferencias. 5. Ingrese a la página web de uno de los softwares más populares para análisis de ciclo de vida (www.gabi-software.com). Ingrese a la sección de downloads y descargue una versión gratuita del software. Investigue las características y el potencial de este producto. Referencias 159 Referencias AIE, Agencia Internacional de Energía. (2009). Renewable Information 2009. París, Francia. Azapagic, A., Emsley, A. y Hamerton, I. (2003). Polymers and Sustainable Development. John Wiley and Sons, Inglaterra. Azapagic, A., Perdan, S. y Clift, R. (2004). Sustainable Development in Practice. John Wiley and Sons, Inglaterra. Dorf, R. C. (2001). Technology, Humans and Society. Academic Press, Estados Unidos de América. INE, Instituto Nacional de Ecología. (1997). Gestión ambientalmente racional de las sustancias químicas desde la perspectiva de la industria. México. LaGrega, M. D., Buckingham, P. L. y Evans, J. C. (1994). Hazardous Waste Management. McGraw-Hill, Estados Unidos. Masters, G. (1997). Introduction to Environmental Engineering and Science. Prentice Hall, Estados Unidos. Nattrass, B. y Altomare, M. (1999). The Natural Step for Business. New Society Publishers, Canadá. REN21. (2009). Renewables Global Status Report: 2009 Update (Paris: REN21 Secretariat). París, Francia. Romero, O. (2002). “Tecnología, negocios y medio ambiente”, Dirección Estratégica. México, sept.-nov., 2002, pp 31-35. Romero-Hernández, O. (2004). “To treat or not to treat? Applying chemical engineering tools and a life cycle approach to assessing the level of sustainability of a clean-up technology”, Green Chemistry, vol. 6, pp. 395-400. Romero-Hernández, O. (2005). “Applying Life Cycle Tools and Process Engineering to Determine the Most Adequate Treatment Process Conditions. A Tool in Environmental Policy”, Int J LCA. DOI: http://dx.doi.org/10.1065/ lca2004.09.180.11. Ecomed Publishers. Romero-Hernández, O., Livingston, A. y Pistokopoulos, E. (1999). “Waste Treatment and Optimal Degree of Pollution Abatement”, Environmental Progress. American Institute of Chemical Engineers, vol. 17, núm. 4, pp. 270-277. Romero-Hernández, S. y Romero-Hernández, O. (2003). “A framework of Computer Aided Engineering and LCA applied for Life Cycle Management”, InLCA/LCM, 2003, septiembre 22-25, Seattle, Washington. Romero-Hernández, S., Romero-Hernández, O. y Wood, D. (2011). Energías renovables: Impulso político y tecnológico para un México sustentable. USAID-ITAM, Washington DC. UNEP, United Nations Environmental Programme. (2001). “Global Environmental Outlook 2000”, Perspectivas del Medio Ambiente Mundial. UNEP-GEO 2000, Nairobi, Kenya. Thompson, D. (2003). Tools for Environmental Management. A Practical Introduction and Guide. New Society Publishers, Canadá. CAPÍTULO 7 Materiales en ingeniería y procesos de manufactura AUTOR: Dr. Sergio Romero Hernández Con la colaboración del Dr. Víctor Cruz Morales y del Dr. Adán Ramírez López 7.1 Introducción e importancia de los materiales en ingeniería 7.2 Estructura de los materiales 7.3 Principales aleaciones ferrosas y no ferrosas 7.4 Polímeros y cerámicos 7.5 Propiedades mecánicas de los materiales 7.6 Clasificación general de los procesos de conformado 7.7 Procesos de fundición y vaciado 7.8 Conformado de metales 7.9 Conformado y aplicaciones de polímeros 7.10 Manufactura integrada por computadora 7.11 Construcción rápida de prototipos 7.1 Introducción e importancia de los materiales en ingeniería Todos los productos fabricados por la industria y que forman parte de la vida diaria del ser humano están fabricados por lo menos de un material, y frecuentemente de varias clases de ellos. Automóviles, aviones, herramientas, juegos y un sinf ín de artículos cotidianos se fabrican eligiendo el material que mejor se adapta a su uso final. No obstante la gran diversidad de materiales existentes, es posible clasificarlos en cinco grandes grupos: Metales: pueden encontrarse como puros y aleados. Tienen una buena conductividad eléctrica, alta resistencia y ductilidad. Los más comunes en ingeniería son los aceros, cobre, aluminio y níquel. Cerámicos: ladrillo, vidrio, porcelana y abrasivos. Tienen baja conductividad, son aislantes naturales, son duros y, por lo tanto, de comportamiento frágil. Su uso está en expansión gracias a nuevas técnicas de procesamiento y a la búsqueda de nuevas aplicaciones. Polímeros: también conocidos como plásticos, son grandes estructuras moleculares de cadenas repetidas de una molécula básica. En general, presentan propiedades, como baja conductividad eléctrica y térmica, y baja resistencia mecánica; sin embargo, necesitan muy poca energía para ser manufacturados, por lo que su costo es reducido y su uso extenso. 162 Capítulo 7 Materiales en ingeniería y procesos de manufactura Proceso de formado Estructura atómica Propiedades del material FIGURA 7.1 Relación entre estructura atómica, materiales y proceso de formado Semiconductores: silicio, germanio, galio. Se usan en aplicaciones electrónicas y de sensores. Su conductividad eléctrica puede regularse. Son utilizados en transistores, diodos, circuitos integrados y paneles fotovoltaicos. Compuestos: son el resultado de la combinación de dos o más materiales con el objeto de obtener una combinación de las propiedades de ambos; por ejemplo, la combinación de un material dúctil y flexible (acero) y un material rígido y resistente (cemento) para obtener un material que soporte pesadas estructuras (concreto). La fibra de vidrio es otro ejemplo en el que se combina la facilidad de manufactura de las resinas plásticas con la alta resistencia de las fibras. Existe una relación tripartita entre estructura atómica, proceso de formado y propiedades del material, como se ilustra en la figura 7.1. Un cambio en cualquiera de estos tres rubros modificará los otros dos; por ejemplo, si se hace pasar una plancha de metal a través de un par de rodillos (éste es el proceso de laminación), la estructura interna del material se verá modificada, ya que los granos que componen el material sufrirán una compresión, la cual, a su vez, generará un aumento en la resistencia de la pieza, como se muestra en la figura 7.2. Asimismo, si se agrega un elemento que produzca una aleación, la estructura atómica y los procesos de formado se verán modificados para el nuevo material. Las propiedades de los materiales se clasifican en dos grandes grupos, dependiendo de su naturaleza. Las propiedades f ísicas son aquellas in- FIGURA 7.2 Cambios en la estructura interna 7.2 Estructura de los materiales 163 trínsecas a la naturaleza del material y que se mantienen constantes, entre ellas se pueden mencionar el comportamiento eléctrico, magnético, óptico, térmico, elástico y la densidad, entre otras. Las propiedades mecánicas describen la respuesta de un material a una fuerza mecánica; por ejemplo, la rigidez, ductilidad, resistencia al impacto, resistencia a la fatiga, termofluencia, desgaste. Por lo tanto, las propiedades mecánicas definen cuánto resiste un material y cómo se debe procesar. El tipo de procesamiento de un material se elige, entonces, con base en sus propiedades y en su estructura interna; por ejemplo, es fácil imaginar que un material como el barro o la arcilla necesita ser combinado con agua para darle forma y, una vez lograda ésta, la pieza se hornea para darle dureza y resistencia. En cambio, para hacer motores se funden grandes cantidades de metal que son vaciados en estado líquido dentro de moldes de arena. Al seleccionar un material para una aplicación específica, es necesario tomar en consideración los efectos que el ambiente puede ocasionar. Al trabajar a altas temperaturas, la mayoría de los materiales ven su resistencia disminuida, por lo cual pueden sufrir fracturas internas que conlleven al fallo de la pieza. Asimismo, la atmósfera en la que trabaje el material puede afectarlo, siendo el ejemplo más claro la corrosión de los metales al contacto con agua o ambientes agresivos. 7.2 Estructura de los materiales La estructura de los materiales puede ser considerada en tres diferentes niveles, dependiendo de la magnificación empleada. Nivel atómico: en este nivel se describe el comportamiento y la forma en que se unen los átomos. Nivel cristalino: algunos materiales, como semiconductores, cerámicos, polímeros o metales, presentan un arreglo ordenado en sus átomos, con lo que definen cristales, como se muestra en la figura 7.3. FIGURA 7.3 Estructura cristalina 164 Capítulo 7 Materiales en ingeniería y procesos de manufactura Nivel granular: cada cristal es un grano, y la mayoría de los materiales que forman cristales suelen tener varios de éstos, lo anterior se conoce como materiales policristalinos. Los granos influyen en el comportamiento de los materiales. El comportamiento de los materiales lo define su estructura atómica. La estructura de los átomos define la forma en que se enlazan entre sí. Un átomo puede ser esquematizado como un núcleo compuesto de neutrones y protones, el cual se encuentra rodeado por una serie de órbitas en las que se mueven los electrones. Esta representación se conoce como modelo atómico de Bohr, el cual se encuentra esquematizado en la figura 7.4. La estructura atómica se encuentra determinada por varios factores, entre ellos los tipos de átomos presentes, los tipos de enlaces entre dichos átomos y la forma en que los átomos se encuentran arreglados. La distribución espacial de los electrones en órbitas alrededor del núcleo de los átomos determina la forma en que se van a unir. La energía de los electrones en el átomo y la facilidad de agregarle o quitarle uno o más electrones al átomo para crear un ion cargado son también factores que definen el enlace. En general, es posible decir que para que existan enlaces es necesario que exista afinidad química entre los átomos. Cuando no ocurre esta afinidad, los materiales se encuentran separados sin mezclarse, como ocurre con el aceite y el agua. La unión de átomos es conocida como enlace. En algunos casos los átomos comparten o ceden electrones a otros átomos para realizar así el enlace, mientras que en otros las moléculas son polarizadas y atraídas entre sí. Los enlaces entre átomos se clasifican en primarios y secundarios, dependiendo de si comprenden transferencia de electrones o no. Los enlaces primarios son fuertes e involucran una gran energía para formarlos o romperlos. Electrones Núcleo FIGURA 7.4 Representación del átomo de Bohr 165 7.2 Estructura de los materiales – + – + FIGURA 7.5 Tipos de enlace – – – – – + – + – – – + – + – – – – – + + Hay tres tipos de enlaces primarios: metálico, covalente e iónico. En el primero, los electrones de valencia de cada átomo se mueven alrededor de los núcleos positivos formando un mar de electrones que mantiene los átomos unidos por atracción electrostática. En el enlace covalente, los átomos involucrados tienen su último orbital casi lleno, por lo que se unen al compartir electrones, para quedar en equilibrio electroquímico; este tipo de enlace se puede dar entre el mismo tipo de elementos. El enlace iónico se basa en una atracción electrostática fuerte y sólo puede existir entre diferentes elementos, ya que uno de los elementos cede un electrón para llenar el último orbital del otro elemento. Esta transferencia de electrones da lugar a la generación de un par de iones, uno con carga positiva y otro con carga negativa, los cuales se atraen entre sí. La figura 7.5 muestra un esquema de los tres tipos de enlaces primarios. El principal tipo de enlace secundario es el conocido como Van der Walls. Varias moléculas y átomos son naturalmente polarizados; esto implica que, aunque la molécula es eléctricamente neutra, un lado de ella está con carga predominante positiva, mientras el otro lado es primordialmente negativo. Esta polarización genera una atracción electrostática débil entre las moléculas involucradas. El ejemplo más cotidiano lo constituye el agua: la molécula básica consiste en la unión por medio de enlaces covalentes de un átomo de oxígeno con dos átomos de hidrógeno; sin embargo, ya que la molécula de agua está naturalmente polarizada, varias moléculas se unen entre sí por un enlace Van der Walls, como se muestra en la figura 7.6. Este H – O H FIGURA 7.6 Enlace Van der Walls + H + – + O H + 166 Capítulo 7 Materiales en ingeniería y procesos de manufactura FIGURA 7.7 Estructura granular enlace secundario es el que define propiedades como la temperatura de fusión o la dureza del agua en estado sólido. A nivel cristalino, en varios materiales los átomos se acomodan formando estructuras ordenadas siguiendo un patrón, generando una fase, es decir, una región química y estructuralmente homogénea dentro del material. Las estructuras más comunes en los metales presentan una geometría cúbica con un átomo en cada vértice del cubo; en algunos casos tienen un átomo en el centro del cubo, lo que da lugar a una estructura cúbica de cuerpo centrado. En otros materiales, en cada cara del cubo se encuentra un átomo, lo que da lugar a una estructura cúbica de cara centrada. A nivel macro, un material suele formarse por un conjunto de cristales conocidos como granos. Es importante recalcar que cada grano es un cristal en sí mismo; por lo tanto, la agrupación de granos es un conjunto de cristales similares, pero cuentan con direcciones diferentes y son limitados por regiones amorfas conocidas como límites de grano, esto puede apreciarse en la figura 7.7. 7.3 Principales aleaciones ferrosas y no ferrosas Aunque algunos metales son importantes como elementos puros (por ejemplo, el oro, la plata y el cobre), la mayoría de sus aplicaciones en ingeniería requieren la combinación de ellos a través de una aleación, porque se pueden mejorar propiedades, como la resistencia, la dureza y algunas otras que llegan a ser superiores al compararlas con las de los metales puros. Una aleación es un material metálico compuesto de dos o más elementos, de los cuales por lo menos uno es metálico. Los materiales metálicos 7.4 Polímeros y cerámicos 167 suelen dividirse en dos principales categorías: 1. aleaciones ferrosas y 2. aleaciones no ferrosas. Los metales y las aleaciones ferrosas contienen hierro como metal base. Son las aleaciones de mayor importancia en ingeniería. Los mecanismos de endurecimiento se aplican a este tipo de aleaciones. Las categorías generales son aceros al carbono y de aleación, los aceros inoxidables, los aceros para herramienta y dados, los hierros fundidos y los aceros fundidos. Los aceros se producen comúnmente de dos formas: refinando el mineral de hierro o reciclando chatarra de acero. Para la producción de acero primario, el mineral de hierro (óxido de hierro) se calienta en un alto horno en presencia de coque (carbono) y oxígeno. Para el reciclado de chatarra de acero, ésta se introduce en un horno eléctrico de arco, donde es fundida. Los materiales no ferrosos incluyen elementos metálicos y aleaciones que no se basan en el hierro. Los metales de ingeniería más importantes en el grupo de los no ferrosos son: aluminio, cobre, magnesio, níquel, titanio, zinc y sus aleaciones. Aunque el grupo de metales no ferrosos no puede igualar la resistencia de los aceros, algunas aleaciones no ferrosas tienen características, como resistencia a la corrosión y relaciones resistenciapeso, que los hacen competitivos con los aceros en aplicaciones para esfuerzos moderados y altos. Estos metales tienen otras aplicaciones importantes gracias a ciertas propiedades, como la elevada conductividad térmica y eléctrica, maleabilidad, ductilidad, baja densidad y facilidad de fabricación. Otro factor importante en el diseño con metales no ferrosos es su costo, que también varía de manera considerable. En general, son de mayor costo que los metales ferrosos; sin embargo, el precio del metal es solamente una pequeña parte del costo de un componente. Su fabricación y terminado, sin mencionar la comercialización y la distribución, contribuyen mucho más al costo total de una pieza. Además, muchos de ellos tienen otras propiedades distintas a las mecánicas, que los hacen ideales para aplicaciones en las que el acero podría ser inadecuado. 7.4 Polímeros y cerámicos Un polímero (del griego poli, que significa muchos, y meros, que significa partes) es una sustancia de masa molecular elevada que consta de muchas unidades idénticas o moléculas unidas una a otra en una cadena, cuya base son los enlaces de carbono, hidrógeno, oxígeno y nitrógeno. Ciertos productos naturales, como las resinas y el caucho, provienen de la polimerización o encadenamiento de moléculas sencillas. Sin embargo, el estudio de los polímeros se dirige a la fabricación de sustancias artificiales de esta clase, que por su resistencia a la corrosión, baja conductividad eléctrica, flexibilidad y baja densidad tienen una amplia variedad de aplicaciones industriales. 168 Capítulo 7 Materiales en ingeniería y procesos de manufactura La formación de polímeros se debe fundamentalmente a dos tipos de procesos químicos de encadenamiento de moléculas: la adición y la condensación. En la polimerización por condensación se producen los polímeros debido a la formación de uniones entre dos tipos de monómeros en reacción. Por otra parte, la polimerización por adición consiste en la unión de moléculas simples, de manera que el polímero conserva la misma proporción en átomos. Grado de polimerización, GP Peso molecular del polímero GP = Peso molecular del monómero La eficacia de este proceso se evalúa por medio del grado de polimerización; cuanto más elevado sea éste, mayor será la viscosidad del polímero, es decir, su resistencia al fluir. En algunos polímeros es posible impartir algo de cristalinidad. La región cristalina (cristalita) tiene una organización ordenada de las moléculas; cuanto mayor sea su cristalinidad, más duro y rígido será el polímero. La temperatura de transición vítrea separa la región del comportamiento frágil y del comportamiento dúctil. Existen tres clases principales de polímeros: termoplásticos, termofijos y elastómeros. Los termoplásticos se agrandan y se forman fácilmente a temperaturas elevadas. Los termofijos son mucho más rígidos y duros, mientras que los elastómeros tienen la capacidad de sufrir deformaciones elásticas y regresar a su forma original. Otra clasificación de los polímeros se debe a los procesos de producción y a la materia que se usa para elaborarlos. Clasificación de los polímeros por su origen Naturales A partir de celulosa: a) Celulosa q acetato de celulosa (películas fotográficas, fibras textiles, etc.) b) Celulosa q nitrato de celulosa (plásticos, explosivos, rayón, barnices) Sintéticos A partir de productos derivados del petróleo y carbón (ejemplo etileno): Coque + metano q acetileno Acetileno + hidrógeno o etileno Polipropileno, cloruro de polivinilo, polimetilmetacrilato, policarbonato Polímeros 7.5 Propiedades mecánicas de los materiales 169 Los cerámicos (del griego keramos, que significa arcilla de alfarero) son compuestos de elementos metálicos y no metálicos. Gracias a sus propiedades como aislante eléctrico y resistencia a altas temperaturas, los cerámicos se utilizan en la industria automotriz. Su estructura se basa en enlaces covalentes (comparten electrones) o iónicos (enlaces primarios entre iones de carga opuesta). En consecuencia, las propiedades como la dureza o resistencia eléctrica son mejores en los cerámicos que en los metales; por otra parte, son frágiles y tienen tenacidad baja. Los cerámicos se pueden dividir en dos clases: tradicionales o industriales, también conocidos como cerámicos de ingeniería. Estos últimos son particularmente atractivos para aplicaciones como componentes de motores térmicos, herramientas de corte y componentes que requieran resistencia al desgaste. Cerámicos importantes en el diseño y la manufactura son los cerámicos a base de óxidos (alúmina y zirconio). 7.5 Propiedades mecánicas de los materiales Las propiedades mecánicas del material determinan su comportamiento cuando se encuentra sujeto a esfuerzos mecánicos, por lo que son de vital importancia para el diseño y manufactura de las piezas. Entre las propiedades mecánicas se incluyen: el módulo de elasticidad (E), ductilidad (elongación total y reducción del área), dureza y varios valores de resistencia (resistencia a la cedencia, σy, resistencia máxima a la tensión UTS). Estas propiedades, a su vez, dependen del material en particular y de su estado. Existen tres tipos de esfuerzos estáticos a los que un material puede ser sometido: tensión, compresión y esfuerzo cortante. Para determinar las propiedades mecánicas se utilizan comúnmente ensayos de tensión, los cuales miden la resistencia de un material a una fuerza estática; a partir de éstos se desarrollan curvas de esfuerzo real–deformación, que son importantes en la determinación del coeficiente de resistencia (k), el exponente de endurecimiento por deformación (n) y la tenacidad de los materiales. El esfuerzo real es la relación de la carga P con el área transversal real (instantánea) A de la muestra. Los ensayos de compresión, debido a la presencia de fricción, son muy inexactos; sin embargo, son útiles para forja, laminado y extrusión. Los ensayos de torsión se llevan a cabo en especímenes tubulares y evalúan el esfuerzo cortante. Se utilizan diversos ensayos de dureza para determinar la resistencia de un material contra ralladuras permanentes. La dureza está relacionada con la resistencia mecánica al desgaste, pero no es por sí misma una propiedad fundamental del material. Brinell, Rockwell, Vickers y Knoop son ensayos comunes de dureza. Las pruebas de impacto miden la capacidad de un material para absorber energía hasta su ruptura; la prueba de impacto, denominada ensayo de 170 Capítulo 7 Materiales en ingeniería y procesos de manufactura Charpy, es la más común. También son útiles para determinar la temperatura de transición dúctil a frágil de los materiales. Los ensayos de fatiga indican límites de resistencia a la fatiga o límites de fatiga de los materiales, es decir, el esfuerzo máximo al cual se puede sujetar un material sin que muestre falla por fatiga. La falla es uno de los aspectos de mayor importancia en lo relativo al comportamiento de los materiales, ya que influye de manera directa en la selección de los mismos para determinadas aplicaciones. Existen dos tipos generales de fallas: pandeado y fractura, la cual incluye la separación del material. Aunque la falla de los materiales por lo general se considera como no deseable, algunos productos se diseñan de manera que la falla sea esencial en su función, como ocurre por ejemplo en las estructuras de automóviles, las cuales ante un impacto se deforman y fallan, absorbiendo energía y manteniendo seguro el habitáculo del conductor. 7.6 Clasificación general de los procesos de conformado Como base para la clasificación general de los procesos de conformado, destaca la importancia de la selección correcta de la maquinaria de manufactura, la forma en que el proceso de selección se relaciona con las características de los materiales, el acabado superficial y el costo de la manufactura. La mayoría de procesos se han automatizado, y cada vez existe un mayor control computarizado para optimizar todos los aspectos de las operaciones. La elección de un proceso de manufactura se determina por diversas consideraciones, como son: características y propiedades del material, forma, tamaño y espesor de la parte; requerimientos en la tolerancia dimensional y de acabado superficial; volumen de producción; costos incurridos en aspectos individuales y combinados en la operación de manufactura. Por una parte, algunos materiales se pueden procesar a temperatura ambiente, mientras que otros requieren temperaturas elevadas. Algunos materiales no son fáciles de trabajar, por lo que requieren técnicas especiales de procesamiento. Los distintos materiales tienen diversas características de manufactura, por eso es posible una clasificación de sus procesos. La clasificación se debe a las características finales deseadas. Algunas de estas operaciones de manufactura producen productos largos y continuos, como placas, hojas, tubería y barras con diversas secciones transversales. Los procesos de laminado, extrusión y estirado son capaces de elaborar dichos productos a partir de materiales metálicos y no metálicos, incluyendo los plásticos reforzados; posteriormente se cortan a las longitudes deseadas. Por otra parte, los procesos como la forja, la metalurgia de los polvos y la mayoría de los procesos de modelado y conformado para materiales pro- 7.7 Procesos de fundición y vaciado 171 ducen productos discretos, como discos para turbina, engranes y pernos. Las piezas forjadas se pueden fabricar con formas complejas en general, con operaciones posteriores de maquinado y acabado, y tienen una tenacidad que suele ser mejor que la de las piezas fundidas. Las características de la maquinaria y el equipo utilizado en estos procesos también afectan de manera significativa la calidad del producto, su tasa de producción y la economía de la operación de manufactura. 7.7 Procesos de fundición y vaciado La fundición es uno de los procesos más antiguos, económicos y eficaces de formación de objetos mediante el vaciado de material líquido en un molde, en el cual permanece hasta que solidifica. Hay dos tipos de fundición; en el primero, el molde produce una forma simple, llamada lingote, el cual requiere una deformación plástica o maquinado antes de crear con él un producto terminado; en el segundo, se producen piezas casi terminadas. Procesos de fundición en moldes Desechables: de arena, yeso, cerámica, etc. Se destruyen después de la fundición; por ejemplo: fundición en arena, cera perdida, fundición con poliestireno expandido, fundición en concha o cáscara. Generalmente se utilizan para la elaboración de piezas complejas. Permanentes: de metal o de refractarios cerámicos que soportan altas temperaturas. Son económicos cuando la producción es alta; por ejemplo: fundición en dados, cámara caliente, fundición centrífuga. Ventajas Desventajas Creación de partes complejas. Baja precisión dimensional. De formas pequeñas a grandes. Imperfección de superficies. Cualquier metal (ferroso o no ferroso) que al calentarse pase al estado líquido puede fundirse. Deficiencia en propiedades mecánicas, como porosidad. Producción de partes de forma neta en algunos procesos. Trabajadores: exposición a altas temperaturas. Factores críticos en operaciones de fundición • • • • Solidificación del metal y su contracción. Flujo del metal fundido hacia dentro de la cavidad del molde (vaciado, flujo de fluidos). Transferencia de calor durante la solidificación y el enfriamiento del metal en el molde. Tipo de material del molde. 172 Capítulo 7 Materiales en ingeniería y procesos de manufactura Práctica de la fundición Existen varios tipos de hornos para la fundición. La selección del más adecuado depende de diversos factores, como económicos (inversión, operación, mantenimiento), composición y punto de fusión del material o aleación a fundir, control de la atmósfera dentro del horno para evitar la contaminación del metal, capacidad del horno, impacto ambiental (aire y ruido), suministro de energía y disponibilidad, facilidad para sobrecalentar el metal, etcétera. 7.8 Conformado de metales Este proceso de trabajo primario consiste en aplicar presión sobre el metal hasta obtener la forma deseada o para mejorar las propiedades f ísicas; puede realizarse en frío o en caliente. En el trabajo en frío, una aleación se de- Trabajo en caliente Ventajas Desventajas Deformación importante del material. Probable fusión de alguna región de la parte. Deformación del material con menor esfuerzo. Incrustaciones (óxidos) en la pieza. Los metales que fracturan en frío pueden manejarse en caliente. Disminuye precisión dimensional. No se produce fortalecimiento de la parte con el calor. Se requiere alta energía. Acabado superficial deficiente. Corta vida útil de las herramientas de trabajo. Trabajo en frío Ventajas Desventajas Mayor precisión dimensional. Mayor potencia requerida para lograr la deformación. Mejores acabados de superficie. El formado que puede hacerse sobre una parte está limitado por la ductilidad y el endurecimiento por deformación. El endurecimiento por deformación aumenta la resistencia y dureza de la pieza. Mayor velocidad de producción. Bajo costo. 7.9 Conformado y aplicaciones de polímeros 173 forma y endurece simultáneamente. En el trabajo en caliente, una aleación se deforma a altas temperaturas sin endurecerse. En el recocido, los efectos del endurecimiento causados por el trabajo en frío se eliminan o modifican mediante un tratamiento térmico. En consecuencia, estos procesos son restringidos a materiales con la ductilidad suficiente para permitir su deformación. Laminado. El laminado es un proceso común para polímeros y metales. Se usa para reducir el espesor constante de la pieza mediante la compresión del material entre dos o más rodillos. Los rodillos tiran el material hacia dentro del espacio de laminación, a través de una fuerza de fricción neta sobre el mismo. Se puede obtener una gran variedad de productos a través de este proceso, como placas, láminas, solera o diversos perfiles, dependiendo si la aplicación es en frío o en caliente. Forja. Consiste en golpear la pieza hasta obtener la forma deseada, de manera que se conforma mediante fuerzas sucesivas de compresión aplicadas a través de diversos dados o matrices y herramientas. Es una de las operaciones más antiguas de trabajo de metales, se usó primero para fabricar joyería, monedas y diversos utensilios martillando el metal con herramientas de piedra. A diferencia de las operaciones de laminado, las operaciones de forjado producen piezas discretas. Extrusión. En el proceso básico de extrusión, llamado extrusión directa o en avance, se coloca una palanquilla redonda en una cámara (recipiente) y es impulsada a través de la abertura de una matriz (o dado) mediante un pistón hidráulico o ariete de prensa. La abertura del dado puede ser redonda o tener otras formas. Hay otras clases de extrusión, como la indirecta, la hidrostática y por impacto. Doblado. Se define como la deformación del metal alrededor de un eje recto. Es una de las operaciones más comunes de formado, en la que se produce poco o ningún cambio en el espesor de la lámina metálica. Durante la operación de doblado las fibras externas del material están en tensión, mientras que las interiores están en compresión. Este proceso no sólo se utiliza para formar piezas, sino también para impartirles lo que aumenta su momento de inercia. Cizalladura. Operación de corte de una lámina de metal a lo largo de una línea recta entre dos bordes. Antes de fabricar una pieza de lámina metálica se elabora como modelo una pieza bruta de dimensiones adecuadas a partir de una lámina grande (por lo general en rollo). Este proceso se usa comúnmente para reducir grandes láminas a secciones de menor tamaño para operaciones posteriores de prensado. 7.9 Conformado y aplicaciones de polímeros Los polímeros están remplazando paulatinamente a los metales debido a sus características únicas y diversas. Estos materiales tienen baja densidad, 174 Capítulo 7 Materiales en ingeniería y procesos de manufactura baja conductividad eléctrica y térmica, resistencia a compuestos químicos y un alto coeficiente de expansión térmica. Muchos de estos compuestos pueden alargarse con gran facilidad y su temperatura de fusión es muy baja. Todas estas propiedades permiten que los polímeros se puedan fundir, maquinar, pegar a otras estructuras, etc., con relativa facilidad. Además, las operaciones de acabado de superficie son mínimas o nulas comparándolas con las de los metales. Una de las ventajas de los polímeros es que, como se funden a temperaturas menores que los metales, son más manejables y se requiere menos energía para procesarlos. Todo esto suele traducirse en menores costos de procesamiento. Sin embargo, los polímeros también tienen algunas deficiencias, como baja resistencia al impacto y a los cambios en la temperatura, baja rigidez, etc., además, el tiempo de biodegradación es muy alto al final de su vida útil. Sorprendentemente, a pesar de tener deficiencias, estos materiales pueden someterse a una gran cantidad de procesos para la mejora de sus propiedades. Algunos de éstos se presentan a continuación: Aditivos. Modifican y mejoran características de los polímeros, como su flamabilidad, color, resistencia, rigidez, resistencia de arco en aplicaciones eléctricas, etcétera. Rellenadores. Dependiendo del tipo de sustancia, aumentan la resistencia mecánica, dureza, resistencia a la abrasión, estabilidad dimensional, etc., del polímero; reducen el costo del material. Algunos ejemplos de rellenadores comúnmente usados son: polvo de sílice, aserrín, fibras celulósicas (vidrio, celulosa, asbesto). Plastificantes. Al reducir la fuerza de los enlaces secundarios en cadenas poliméricas largas, proveen flexibilidad y suavidad a los polímeros, disminuyendo su Tg. Son generalmente solventes no volátiles de bajo peso molecular; por ejemplo, el PVC (se le agregan plastificantes). Colorantes. Pueden ser tintes orgánicos o pigmentos inorgánicos. Los segundos son partículas dispersas que, generalmente, tienen mayor resistencia a la temperatura y a la luz que los tintes. Retardadores de flama. Reducen la flamabilidad de los polímeros. Son compuestos de Cl, Br o P. Lubricantes. Se añaden al polímero para reducir la fricción en procesos subsiguientes, para evitar que las partes se peguen a los moldes y que películas delgadas de plástico se peguen unas con otras. Procesos de manufactura de polímeros Existen grandes cantidades de procesos de manufactura de polímeros debido a su relativa facilidad de manejo. Generalmente los plásticos se envían a las plantas manufactureras en forma de pellets o polvos, y se funden justo antes del proceso de formado. También se pueden encontrar plásticos en forma de láminas, placas, barras y tubería. 7.9 Conformado y aplicaciones de polímeros 175 A continuación se presentan diversos tipos de operaciones de manufactura de plásticos. Extrusión. El material se comprime y fluye a través del orificio de un dado para generar un producto largo y continuo. Este proceso se usa con termoplásticos y elastómeros (casi nunca con termofijos). Los diversos productos obtenidos por este proceso son mangueras, tubos, perfiles (molduras de ventanas y puertas), láminas, películas y recubrimientos de alambres y cables eléctricos. El principio de extrusión simple es el proceso más común y sencillo en esta rama. El material se deposita (pellets o polvo) a un cilindro en donde se calentará y será transportado por medio de un gusano (tornillo giratorio adentro de un cilindro) hasta llegar a un dado que le da la forma. El diámetro interno del cilindro es de 2.5 a 15 cm. El material se calienta mediante resistencias eléctricas a través del cilindro para facilitar el trabajo del proceso. Los dados tienen diferentes formas, dependiendo del instrumento a fabricar; existen las siguientes categorías: a) perfiles sólidos, los dados tienen forma regular de sección redonda o cuadrada y forma irregular, como perfiles estructurales, molduras, accesorios automotrices, etc.; b) perfiles huecos, para tubos o mangueras (se requiere de un mandril para hacer la forma hueca en este proceso); c) recubrimiento de alambres y cables eléctricos (el polímero fundido se aplica a un alambre desnudo, aunque hay un vacío entre el alambre y el plástico). Recubrimiento. Este proceso se usa para recubrimiento de cables y alambres, de películas planas (telas, papel, cartón, etc.) y de contorno de piezas. También se utiliza para el recubrimiento de películas planas, que pueden ser de PE, PP, nylon y PVC. Los recubrimientos generalmente son muy delgados, de 0.01 a 0.05 mm de espesor. Este tipo de proceso puede hacerse por inmersión o por aspersión. Moldeo por inyección. Este proceso es el más utilizado para termoplásticos. Los pellets se calientan hasta que estén completamente plásticos, y posteriormente se hacen fluir por medio de presión hacia un molde donde solidificarán. Este proceso es viable económicamente cuando la producción es muy grande. Una máquina de moldeo por inyección consta de dos partes: 1. Unidad de inyección: parecido a un extrusor. Ahí se funden y homogeneizan los pellets; posteriormente se inyecta el polímero fundido al molde. 2. Unidad de sujeción: es la que se encarga de mantener cerrado el molde durante la inyección, aplicando una F (de sujeción) mayor que la del lado de la inyección. Existen unidades de sujeción articulada, hidráulica e hidromecánica. 176 Capítulo 7 Materiales en ingeniería y procesos de manufactura Un aspecto que se debe tomar en cuenta en este proceso es la contracción o reducción en dimensiones lineales ocurrida durante el enfriamiento, desde la temperatura de moldeo hasta la temperatura ambiente para cada polímero. Es muy importante este cambio y debe considerarse en los cálculos, ya que la reducción puede ser de hasta 10%. Moldeo por compresión. Método usado con frecuencia para polímeros termofijos y elastómeros. Se usa para sistemas de calentamiento, como calentadores infrarrojos, calentamiento por convección en estufa o uso de tornillos giratorios dentro de un cilindro caliente. Se utilizan elastómeros para producir contactos eléctricos, mangos de ollas y sartenes, vajillas de plástico, etcétera. Una ventaja es que se trata de un proceso barato y genera poco desperdicio. Es lento debido al calentamiento; sin embargo, actualmente se trata de precalentar la carga antes de entrar en contacto con el molde. Moldeo por soplado. Este proceso se utiliza para la producción de partes huecas, sin costura, a partir de polímeros termoplásticos. Se pueden producir envases desechables, tanques para gasolina de automóviles, juguetes, botes pequeños, tambores para embarcar líquidos y polvos, etcétera. Estas formas huecas se producen al soplar aire a un plástico suave (preforma) que se encuentra dentro de la cavidad de un molde. Se lleva a cabo en dos pasos: a) fabricación del parison (tubo de plástico fundido) por extrusión o moldeo por inyección, y b) soplado del tubo hasta obtener la forma deseada. Termoformado. Se trabaja a partir de una lámina plana de algún polímero termoplástico y se le da forma. Se realiza en dos pasos: primero se calienta y luego se le proporciona la forma. Este proceso se utiliza en la fabricación de tinas de baño, domos para tragaluces, revestimientos internos de refrigeradores, etcétera. Hay diversos tipos de termoformado al vacío, por presión y mecánico. En ambos casos se utilizan moldes negativos y positivos; la decisión de usar uno u otro dependerá de la pieza a fabricar. Los moldes positivos y negativos producen diferentes adelgazamientos de una pieza. 7.10 Manufactura integrada por computadora Los procesos de conformado revisados en las secciones anteriores se caracterizan por transformar grandes cantidades de material mediante algún elemento o dispositivo, como puede ser rodillo laminador, molde de inyección o fundición, o dado para extrusión. En todos los casos la flexibilidad del proceso es limitada, puesto que depende del dispositivo en cuestión y los volúmenes de producción no permiten hacer cambios con facilidad. Los procesos de manufactura por arranque de viruta se emplean para la fabricación de piezas únicas o, en su caso, para pequeños lotes; son las herramientas y el proceso seleccionado los que determinan la forma final. 7.10 Manufactura integrada por computadora 177 FIGURA 7.8 Centro maquinado controlado por control numérico En la actualidad, la variedad de este tipo de procesos es muy grande, aunque no poseen gran flexibilidad si no se asocian a un sistema de control computarizado. La manufactura integrada por computadora se enfoca hacia la automatización de un proceso de manufactura y de manejo de materiales, mediante técnicas integradas de control automático (electroneumática, SCADA, PLC, etc.) y de control numérico computarizado (CNC). Esta integración aporta al proceso de manufactura una gran flexibilidad y mejora notablemente la reproducibilidad de las piezas fabricadas. En la manufactura integrada las máquinas de control numérico son las que aportan la flexibilidad al proceso de fabricación, al responder a los códigos de control numérico suministrados por el operador, quien previamente los generó en algún sistema de manufactura asistida por computadora (CAM, por sus siglas en inglés) o los programó uno a uno. En la figura 7.8 se muestra un centro de maquinado manejado por control numérico. El proceso de manufactura computarizada parte de un diseño elaborado en algún programa de diseño asistido por computadora (CAD, por sus siglas en inglés) a tamaño real, ya sea en sistema métrico o en sistema inglés. En la figura 7.9 se muestra un modelo de CAD. Es importante recordar que de la calidad del diseño dependerá la pieza a manufacturar; las alteraciones en la forma o errores en las dimensiones serán reproducidas por la máquina de control numérico. El diseño en CAD 178 Capítulo 7 Materiales en ingeniería y procesos de manufactura FIGURA 7.9 Modelo en CAD de mascarilla de oxígeno se envía al sistema CAM mediante la conversión del archivo o en su formato nativo, si se dispone del traductor. El programa de CAM sirve para fabricar de manera virtual la pieza que ha de ser manufacturada por la máquina de control numérico y permite generar los códigos con que opera la máquina. Por esta razón, en un sistema CAM se encuentra una representación virtual de la máquina CNC, de las herramientas y el material. Dentro del programa CAM se elaboran las rutas de corte que han de seguir las herramientas para elaborar la pieza diseñada. A continuación se muestra una ruta de trabajo elaborada en un sistema CAM para la elaboración del modelo positivo de un molde de inyección. Cuando se ha logrado obtener la pieza diseñada empleando el programa CAM, como se muestra en la figura 7.10, o se han completado todas las trayectorias de maquinado que reproducirán la pieza diseñada, se procede a elaborar el código de control numérico de acuerdo con el tipo de control que posee la máquina CNC. El código de control numérico se obtiene proporcionando al sistema CAM un posprocesador que transforma las rutas de maquinado en códigos de control numérico que entiende la máquina CNC. El código CNC contiene la información necesaria para indicar a la máquina el número de herramienta a utilizar, la profundidad de corte, la velocidad y la forma del corte. La naturaleza complementaria existente entre los sistemas CAD/CAM permite una enorme flexibilidad en la manufactura de las piezas, pues cualquier cambio que se haga en el diseño se verá reflejado en las rutas de maquinado, ya que éstas dependen de la forma diseñada. 179 7.10 Manufactura integrada por computadora Ruta de trabajo en un sistema CAM para maquinar un macho de un molde de inyección Maquinado Herramienta Imagen Descripción Desbaste Fresa plana de 1 pulg. Con este maquinado se elimina la mayor cantidad de material en el bloque. Se deja un sobrematerial que después se remueve con el pulido. Desbaste de restos Fresa plana de 1/2 pulg. Es necesario un desbaste de restos, ya que el diámetro de la herramienta anterior es muy grande y deja aún material en la pieza. Se mantiene el sobrematerial. Pulido Fresa de bola de 1/8 de pulg. En este maquinado se elimina el sobrematerial para dar el acabado final a la pieza. Se logra maquinar casi todas las zonas. Pulido de restos Fresa de bola de 1/8 de pulg. Es necesario un último maquinado para el área donde se encuentra la línea de partición, ya que en la etapa anterior no se maquina esta zona. 180 Capítulo 7 Materiales en ingeniería y procesos de manufactura FIGURA 7.10 Modelo terminado en CAM 7.11 Construcción rápida de prototipos Durante el proceso de diseño de productos es necesario producir un prototipo, en el cual se puedan hacer pruebas realistas de operación y desempeño. Tradicionalmente, la manufactura de prototipos se hace siguiendo una secuencia que conduce del dibujo técnico a las especificaciones de manufactura; posteriormente, la pieza se produce por fundición o maquinándola en tornos y fresas. Este proceso, a pesar de ser útil, siempre ha conllevado un tiempo considerable, incluso de meses, antes de obtener un prototipo. Con el advenimiento de poderosas herramientas computacionales, como el modelado de sólidos asistido por computadora en un ambiente CAD, se han desarrollado técnicas especiales que permiten generar un prototipo directamente a partir de un archivo de CAD. Estas técnicas pueden clasificarse en dos grandes grupos: procesos sustractivos y procesos aditivos. Si la pieza generada en CAD es manipulada en un programa de manufactura integrada por computadora, la cual genera las trayectorias y parámetros de maquinado para fabricarla a partir de un bloque inicial, el proceso es sustractivo, esto es, se sustrae material del bloque inicial para construir el prototipo. Otras técnicas más novedosas construyen el prototipo a partir de una segmentación de la geometría en forma de capas. Esto es fácil de imaginar si se toma el ejemplo de un fajo de naipes, en el cual cada naipe es una capa de la geometría final. Algunos programas especializados generan la segmentación del sólido y definen la geometría a partir de estas capas. Las máquinas especializadas, las cuales pueden verse como impresoras tridimensionales, Referencias 181 forman capa por capa de la pieza al depositar o fusionar el material de ésta. Entre las técnicas más empleadas se encuentra la estereolitograf ía, que utiliza como materia prima un polímero fotopolimerizable, el cual se solidifica en forma selectiva con uso de un láser o un haz ultravioleta controlado por computadora. Otras máquinas emplean la técnica de deposición de material fundido (FDM), en el cual un cabezal va depositando material capa por capa. Existen diversas tecnologías que permiten usar como materia prima polvos metálicos, cerámicos o mezclas de éstos. El uso de estas tecnologías permite reducir el tiempo de producción de un prototipo —que podría tardar meses con métodos convencionales— a tan sólo unos días. EJERCICIOS PROPUESTOS 1. ¿Cuáles son los cinco grandes grupos en los que podemos clasificar a los materiales? Para cada uno de ellos mencione algunas de sus propiedades o características e investigue algunas de sus aplicaciones. 2. ¿Qué aspectos deben estimarse para la selección de un proceso de manufactura? Considere un envase para refresco, que puede ser hecho de diferentes materiales, como vidrio, aluminio o PET, investigue qué procesos son usados para cada material. 3. Mencione las tres principales clases de polímeros, así como algunas de sus características. Investigue un ejemplo de cada uno y sus aplicaciones. 4. Elija algún producto o artefacto e identifique los materiales que lo componen. Según las características de los mismos trate de identificar por qué se utilizaron esos materiales para dicho producto/artefacto. Referencias Anderson, J. C. (2000). Ciencia de los materiales. Noriega Limusa, México. Askeland, D. R. (2010). The Science and Engineering of Materials, 6a. Ed. Pacific Groove, CA, Cengage Learning, USA. Dieter, G. (1986). Mechanical Metallurgy. McGrawHill, Boston, Mass. Groover, M. P. (2002). Fundamentals of modern manufacturing —Materials, processes and systems, 2a. Ed. John Wiley and Sons, Nueva York. Kalpakjian, S. y Schmid, S. (2001). Manufactura, ingeniería y tecnología, 4a. Ed. Prentice Hall, México. Kalpakjian, S. y Schmid, S. (2003). Manufacturing Processes for Engineering Materials, 4a. Ed. Prentice Hall, Menlo Park, Ca. Mangonon, P. L. (1999). The Principles of Materials Selection for Engineering Design. Prentice Hall, Upper Saddle River, N.J. Schaffer, J. P. (1999). The Science and Design of Engineering Materials. McGraw-Hill, Nueva York. CAPÍTULO 8 Ergonomía AUTORES: Dr. Sergio Romero Hernández Mtra. Françoise Dushinka Brailovsky Signoret 8.1 Introducción 8.2 Historia de la ergonomía 8.3 Áreas de la ergonomía 8.4 Ergonomía de diseño centrado en el usuario 8.1 Introducción La palabra ergonomía proviene del griego ergos, que significa trabajo o actividad, y nomos, que significa principios o leyes, por lo que literalmente significa “leyes del trabajo”. En un concepto más técnico, se dice que es el estudio del ser humano en su ambiente laboral, es decir, ergonomía es el estudio de la interacción entre el hombre y las máquinas, así como los factores que afectan esa interacción. Para poder realizar el estudio de dicha interacción entre el hombre y el objeto, se aplican principios científicos y métodos. Con la obtención de datos provenientes de varias disciplinas se lleva a cabo el desarrollo de sistemas de ingeniería, lo que nos permite la formación de un sistema de soluciones donde el ser humano es tomado como factor principal del diseño. Los métodos ergonómicos descritos por Kroemer (2001) son: • • Investigación de observación: comúnmente utilizada en la medicina, toma mucho tiempo llevarla a cabo, ya que requiere de muchas observaciones para describir un evento. Investigación experimental: utilizada también en la medicina, separa a las personas por grupos y les aplica tratamientos clínicos diferentes para observar lo que sucede. 184 Capítulo 8 • • Ergonomía Experimentos en laboratorio: es un estudio más cuidadoso que permite eliminar eventos atípicos que puedan alterar los resultados. En el laboratorio participan personas que se seleccionan de manera voluntaria. Estudios de campo: dado que los estudios en laboratorio en ocasiones se alejan de la realidad, se hace un estudio de campo para aproximar la realidad de las situaciones. El uso apropiado de estos métodos es un reto diario para los ingenieros y diseñadores de factores humanos. Éstos conducen a las medidas que pueden estar en unidades objetivas o subjetivas. La medida es la forma especializada en que se valoran parámetros específicos del funcionamiento y rendimiento de la gente. Por ejemplo, la fuerza ejercida por la mano al utilizar una herramienta se puede medir en términos de la aceleración, fuerza o torque, con magnitudes y direcciones que varían con el tiempo, nivelando la fuerza percibida o comparando con otras situaciones estresantes (Kroemer, Karl et al., Ergonomics, Prentice Hall, E.U., 2001). Para obtener soluciones ergonómicas se involucran equipos de trabajo y muchas disciplinas, como: • • • • Psicología. Permite analizar cómo reacciona el ser humano ante cosas o efectos. Fisiología. Estudia cómo funcionan las partes del cuerpo. Biomecánica. Analiza cómo se mueve el cuerpo humano o cómo reacciona ante estímulos. Antropometría. Analiza las medidas del cuerpo humano con base en intervalos o promedios. Con lo anterior, se deduce que una solución ergonómica es una solución ingenieril, que va desde el uso de una herramienta hasta un sistema sociotécnico multipersonal; es decir, se ven involucradas varias personas o disciplinas al mismo tiempo. Los puntos clave en la ergonomía son la seguridad y el confort; mientras más confort se logre para los operadores habrá mayor aceptación por parte de los mismos, lo que llevará a un aumento de productividad y eficiencia del sistema de seguridad de operación, implicando una mejora en la calidad de vida. Todo lo anterior son factores importantes que nos permiten conocer el éxito obtenido de un sistema ergonómico, de ahí que la ergonomía se conozca también como factores humanos, ingeniería humana o seguridad industrial. La ergonomía tiene tres objetivos principales y jerarquizados de acuerdo con NIOSH (The National Institute for Occupational Safety and Health): • Generar condiciones de trabajo tolerables que no arriesguen la vida y seguridad de sus operadores. 8.2 Historia de la ergonomía • • 185 Generar condiciones de trabajo óptimas para mejorar la operabilidad y capacidad de operación de los trabajadores, llegando a una mejora en el rendimiento y la productividad. Generar condiciones de trabajo aceptables en donde haya un mutuo acuerdo con los trabajadores en el ámbito organizacional, el sociológico y el tecnológico. Esta jerarquía establece que el objetivo más importante que debe cumplir una solución ergonómica es garantizar la seguridad y salud de los operadores, incluso si involucra una pérdida del confort en un caso extremo. Hay dos aspectos de ergonomía que se deben llevar a cabo: primero se realiza el estudio, investigación y experimentación necesarios para determinar los rasgos y características humanas que se deben conocer para realizar el diseño ingenieril; segundo, se debe tomar en cuenta la aplicación e ingeniería donde se diseñan las máquinas, herramientas, ambientes laborales y procedimientos ajustados al ser humano, todo esto observando el desempeño actual y rutinas o procedimientos de los seres humanos y equipos de trabajo, en un ambiente dado y evaluando la viabilidad de los sistemas hombre-máquina para determinar si el problema es susceptible a mejoras. La ergonomía es una forma de actuar, no es una filosof ía; es una actividad multidisciplinaria, es decir, es una disciplina científica y tecnológica, es neutral e imparcial y busca la armonía del trabajador como persona. Por lo mismo, debe ser aceptada por ambas partes (empleador y empleado), ya que si una de ellas no está de acuerdo, no se logra el desempeño adecuado. 8.2 Historia de la ergonomía Remontándonos a la época de la prehistoria, los hombres ya daban forma a sus herramientas y armas (hachas, flechas, arcos) para hacerlas más fáciles de usar, adaptándolas a los cuerpos y capacidades de las personas. Utilizando materiales como hueso, piedra, madera y hierro, buscaban precisión, alcance, movilidad y fuerza. Se puede decir entonces que el ser humano desde sus inicios siempre buscó una interacción con los objetos que usaba para sobrevivir. Desde la antigüedad los científicos han estudiado el trabajo para reducir sus lesiones y mejorar el rendimiento. En los siglos xv y xvi surgieron personas dotadas, como Leonardo da Vinci y Alfonso Giovanni Borrelli, quienes ya se especializaban en todo el conocimiento de anatomía, fisiología y diseño de equipos. En los siguientes siglos las ciencias de la anatomía y la fisiología se diversificaron y empezaron a acumular muchos conocimientos más detallados. Desde el principio de la Revolución Industrial, en el siglo xviii, la seguridad, higiene y confort en el trabajo han preocupado e involucrado a mucha gente que inicia el desarrollo de diversas disciplinas de estudio que 186 Capítulo 8 Ergonomía dan soluciones ergonómicas, como la ingeniería industrial, la medicina ocupacional y la propia ergonomía. Es en 1713 cuando Bernardino Ramazinni (1633-1714), en el suplemento que hizo a su publicación De Morbis Artificum (La muerte en los trabajadores), da a conocer, desde un punto de vista médico, la relación que observó entre el trabajo desarrollado y los daños músculo-esqueléticos. El término ergonomía fue introducido en la literatura hacia 1857 por el educador y científico polaco Wojciech Jastrzebowski (1799-1882), considerado padre de la ergonomía, quien fue profesor de Ciencias Naturales en el Instituto Agrónomo en Varsovia. Su libro se tituló: Compendio de ergonomía o de la ciencia del trabajo basada en verdades tomadas de la naturaleza. En su descripción original de la ergonomía, Jastrzebowski tuvo cuidado en señalar su intento de darle a la palabra “trabajo” un significado muy amplio: “Esta ciencia del trabajo, comprendida comúnmente como trabajo, no sólo se refiere al aspecto f ísico, sino también al aspecto estético, racional y moral del trabajo” (Budnick, Peter, Ph. D., CPE, Ergoweb. What is Ergonomics Really About?, 2004). En 1881, Friedrich Guldreich Erisman (1842-1915), médico ruso de origen suizo fundador de la higiene en Rusia, organiza la cátedra de Higiene en la Universidad de Moscú y efectúa estudios pioneros sobre las condiciones higiénicas del trabajo y vida de los obreros fabriles (Mondelo, Pedro R. et al., Ergonomía 1, 2000). Hacia principios del siglo xx, cuando la producción industrial dependía en gran medida de la experiencia y habilidad personal de cada trabajador, se comienzan a desarrollar y aplicar herramientas científicas y administrativas que buscan incrementar la eficiencia y calidad en los procesos productivos, dentro de las cuales se involucraban algunos de los conceptos de ergonomía. Se analizan los puestos de trabajo y actividades a través del análisis de tiempos y movimientos, buscando que las herramientas y el equipo requerido fueran más eficientes y menos fatigosos para el trabajador. En 1915 se crea en Inglaterra el Health of Munitions Workers Committee (HMWC, por sus siglas en inglés), que incluía a algunos investigadores con entrenamiento en fisiología y psicología, con el fin de llevar a cabo investigaciones acerca de los problemas de fatiga en la industria, ya que los trabajadores de las fábricas de municiones eran importantes para mantener los esfuerzos de la Primera Guerra Mundial (1914-1918). El comité HMWC, en 1929, tomó el nombre de Industrial Health Research Board (IHRB, por sus siglas en inglés: Comité de Investigación de la Fatiga Industrial). Fue entonces cuando se empezaron a considerar aspectos teóricos y prácticos del hombre en el trabajo, particularmente en lo concerniente a la preservación de la salud entre los trabajadores y la eficiencia industrial. Dicha organización contaba con investigadores entrenados, como psicólogos, fisiólogos, médicos e ingenieros, que trabajaban juntos. 8.2 Historia de la ergonomía 187 FIGURA 8.1 Sin embargo, fue hasta la Segunda Guerra Mundial (1939-1945) cuando la ergonomía tiene un desarrollo importante, debido al desarrollo acelerado de máquinas y equipo complejo en el área militar que se dio en esa época (radares, aviones, etc.), como se muestra en la figura 8.1. Es aquí cuando se presentan problemas en el desempeño de los operadores y encargados de mantenimiento, ocasionándoles estrés, consecuencia del desconocimiento del comportamiento humano y características físicas del usuario. Es así como se empiezan investigaciones aplicando totalmente el concepto de ergonomía, también conocida como factores humanos. Esta situación, que ocurre simultáneamente en Estados Unidos e Inglaterra, requiere de especialistas de diferentes áreas, como ingeniería, fisiología, medicina, sociología y antropología, trabajando en equipo. Términos como ingeniería humana y psico-ingeniería son usados para describir los primeros esfuerzos de diseño. Después de la Segunda Guerra Mundial se cambia el enfoque a la industria, aunque en algunos países también continúa su desarrollo en los programas militares y posteriormente en aeroespaciales. La Sociedad Ergonómica de Investigación de Gran Bretaña, fundada en 1950, es la primera sociedad que se forma agrupando las múltiples disciplinas que involucran a los humanos; en ésta se adoptó oficialmente la utilización moderna del término “ergonomía”. En 1961 se lleva a cabo la primera reunión internacional de sociedades de ergonomía en Estocolmo, sentando las bases para la formación de la Asociación Internacional de Ergonomía, que actualmente agrupa más de 20 asociaciones nacionales de ergonomía y factores humanos alrededor del mundo, incluyendo Estados Unidos, Inglaterra, Japón, Australia, México, China, Inglaterra, Francia, Alemania, Yugoslavia, Croacia, India, Brasil, Rusia, Turquía, entre otros (Michael Rachel, Ergoweb. Ergonomics as a Global Initiative: Presence and Purpose, 2004). De 2001 a la fecha cientos de universidades alrededor del mundo están haciendo investigación en ergonomía y sus disciplinas afines, con el fin de aplicarla en el desarrollo de proyectos con otras universidades, el gobierno 188 Capítulo 8 Ergonomía y con la industria privada, y así mejorar la calidad de vida de cualquier persona, en cualquier situación. La ergonomía debe considerar el aspecto f ísico, cognitivo, social, organizacional, ambiental y todos aquellos factores que influyan sobre el desempeño del ser humano. Este panorama puede clasificarse de forma general en tres grandes áreas, dependiendo del tipo de problema que se involucra: Ergonomía física: involucra áreas de anatomía, antropometría, características fisiológicas y biomecánicas aplicadas a la actividad f ísica del humano. Se analizan los factores ambientales y su influencia sobre el desempeño de los humanos, posturas de trabajo, microtraumatismos repetitivos, distribución de los espacios de trabajo, entre otros. Ergonomía cognitiva: área involucrada con los procesos mentales, como la percepción, memoria, razonamiento y las respuestas motoras. Los ergonomistas especialistas en esta área se encargan del estudio de temas como análisis de la carga mental, procesos de toma de decisiones, la interacción entre humanos y computadoras, estrés, entrenamiento y capacitación, entre otros. Ergonomía organizacional: área involucrada con la optimización de los sistemas socio-técnicos, cuyos temas relevantes son el estudio de la comunicación, diseño del trabajo, diseño de tiempos y turnos de trabajo y descanso, diseño participativo, trabajo en equipo, entre otros. Los ergonomistas deben trabajar en equipo y con especialistas de otras áreas por el enfoque holístico de la disciplina, por lo que la clasificación de las áreas de la ergonomía no implica que sean excluyentes entre sí. Algunos ejemplos donde se refleja el trabajo conjunto entre ergonomistas y especialistas de otras áreas son: • • • • Diseño de cabinas de avión. Diseño de trajes y equipos de protección personal para actividades de alto riesgo, e incluso para deportistas con los que se ha disminuido el riesgo de lesiones y mejorado su desempeño. Análisis del efecto del ruido sobre los humanos. Análisis de las tareas para calcular el tiempo de trabajo y el tiempo de descanso requerido. En general, se participa en el estudio y análisis de las actividades donde intervenga el ser humano, como pueden ser las que se realizan en el hogar, las recreativas, deportivas y educativas. Sin embargo, es una disciplina joven donde aún falta mucho trabajo por realizar, como lo es con la recolección de datos e información sobre las capacidades y condiciones que se deben aplicar a los diseños para niños, personas de la tercera edad y personas con algún tipo de discapacidad, ya que los estudios se han llevado a cabo enfocándose, principalmente, en los hombres y mujeres de edad productiva. 8.3 Áreas de la ergonomía 189 8.3 Áreas de la ergonomía Antropometría Biomecánica Fisiología Áreas especializadas Ergonomía ambiental Ergonomía cognitiva Ergonomía de diseño y evaluación Ergonomía de necesidades específicas Ergonomía preventiva La Sociedad de Ergonomistas de México y la Asociación Española de Ergonomía proponen una clasificación que considera ocho áreas especializadas, con el objetivo de poder describir con más detalle las actividades y áreas a las que se enfocan los ergonomistas. 8.3.1 Antropometría Es el área de la ergonomía que trata con las medidas del cuerpo humano, como tamaño del cuerpo, formas, fuerza y capacidad de trabajo. La palabra antropometría deriva de la palabra griega anthropos, que significa hombre, y de metrón, medida. Los datos antropométricos son utilizados para especificar las dimensiones f ísicas de los espacios de trabajo y, como lo mencionó Grandjean en 1980, “adaptar la tarea al hombre”, buscando evitar problemas derivados de las incompatibilidades entre las características f ísicas del ser humano, los requerimientos del trabajo y los equipos que utiliza. Desde la época del antiguo Egipto y la Grecia clásica se consideraban las dimensiones de los humanos para realizar el diseño arquitectónico de algunos edificios; sin embargo, el estudio más detallado de las proporciones humanas data aproximadamente del año 15 a.C., donde se argumenta que las dimensiones de los edificios debían fundamentarse en ciertos principios estéticos preestablecidos del cuerpo humano. Debido a que existen muy pocas situaciones en donde se puede diseñar un producto o una estación de trabajo para un solo usuario, como podría ser un traje confeccionado a la medida del cliente, el asiento para un automóvil de carreras o la cabina de una nave espacial diseñada para determinado tripulante, el desarrollo de la producción ha generado la necesidad de conocer y utilizar las medidas del cuerpo humano, por lo que se han reali- 190 Capítulo 8 Ergonomía zado estudios que tienen la finalidad de contar con una base de datos antropométricos de la población. La mayor parte de estos estudios se refieren a una población que incluye hombres y mujeres, en edades que comprenden entre los 18 y 65 años, ya que ésta es considerada como la edad laboral. Los datos antropométricos que interesan en el área laboral pueden ser: • • • Estáticos. Las dimensiones se obtienen entre puntos anatómicos del cuerpo, donde el cuerpo se encuentra inmóvil, por ejemplo, la altura de una persona. Funcionales. Describen el movimiento de alguna parte del cuerpo con respecto a un punto fijo de referencia, como puede ser la distancia máxima de alcance de un sujeto de pie, como se aprecia en las figuras 8.2 y 8.3. Newtonianos. Se usan en el análisis mecánico de las cargas del cuerpo humano, considerado como un ensamble de segmentos con cierta masa, ligados entre sí. Estos datos pueden ser utilizados para comparar las cargas ejercidas sobre la columna vertebral cuando se utilizan diferentes técnicas de levantamiento de cargas. Es importante considerar que para hacer análisis ergonómicos de una población se debe contar con la información estadística actualizada de la misma. Los datos antropométricos se miden generalmente en percentiles, que expresan el porcentaje de individuos de cierta población con una dimensión corporal igual o menor a un determinado valor. Estos datos antropométricos tienden a una distribución normal, lo que significa que para cualquier dimensión del cuerpo humano (por ejemplo, la estatura estando sentado o parado, el alcance del brazo estirado), la mayoría de los individuos se encuentra en torno al valor medio, existiendo pocos individuos muy bajos o muy altos. Esto quiere decir que la curva de Gauss FIGURA 8.2 FIGURA 8.3 191 8.3 Áreas de la ergonomía está presente siempre en la antropometría, haciendo más sencillo el diseño de nuevos objetos con un fin ergonómico. f(x) Campana de Gauss ms m ms x Tomada de: www.uantof.cl/facultades/csbasicas/Matematicas/academicos/emartinez/Estadistica/ normal/normal.html Los percentiles más empleados en diseño ergonómico son el p5 y el p95, es decir, que se proyecta para 90% de los usuarios. Sin embargo, cuando se trata de garantizar la seguridad del usuario, se emplean los p1 y p99, que cubren a la mayor parte de la población (sólo deja fuera un 2%). Normalmente se utiliza el p5 para los alcances y dimensiones externas, mientras que para las dimensiones internas se emplea el p95 (con la finalidad de que se considere a las personas de mayor tamaño). (Tomado del Instituto Nacional de Seguridad e Higiene en el Trabajo, http://www.insht.es/). Si las observaciones se tratan según una distribución normal, de acuerdo con el teorema central de límite, los puntos de inflexión de la curva f(x) serán: p m zs y p m zX En donde: p medida del percentil en centímetros, que dará como resultado el intervalo en donde se incluye el porcentaje de la población o de la muestra. z coeficiente que depende del percentil y dará el número de veces que sigma estará separada de la media. La tabla 8.1 muestra varios percentiles (p) que se utilizan en el análisis antropométrico y sus respectivas z. Hay que conocer la media y la desviación estándar de cada dimensión de la población para poder hacer cálculos y tomar decisiones. Si se cuenta con datos antropométricos ya publicados, éstos se pueden utilizar siempre 192 Capítulo 8 Ergonomía TABLA 8.1 Percentiles utilizados en el análisis antropométrico p z p z p z p z 0.5 2.58 25 0.67 55 0.13 85 1.04 1 2.326 30 0.52 60 0.25 90 1.28 5 1.645 35 0.39 65 0.39 95 1.645 10 1.28 40 0.25 70 0.52 99 2.326 15 1.04 45 0.13 75 0.67 99.5 2.58 20 0.84 50 0.00 80 0.84 Tomada de Chiner Dasí, Mercedes et al., 2004, Laboratorio de Ergonomía, España. (México, Alfaomega), y Mondelo, Pedro R. et al., 2000, Ergonomía 1, España. (México, Alfaomega). y cuando sean de la población a quien se le va a diseñar; si no se cuenta con estos datos, se pueden obtener utilizando diversos instrumentos de medición simples, como cinta métrica, regla, vernier, entre otros. Por ejemplo, la estatura media de cierta población es de 155 cm y su respectiva desviación estándar es de 5 cm. Suponga que se van a construir nuevas oficinas y se desea saber qué altura debe tener la puerta de acceso, para que 95% de la población no tenga problemas al pasar por éstas. Esto quiere decir que se está diseñando para el máximo de la población, pues si el más alto pasa por la puerta, también lo podrá hacer la persona más baja de estatura. De acuerdo con la tabla anterior, el valor de z para este percentil (p) es de 1.645. Resolviendo tenemos: p95 155 1.645(5) p95 163.225 Esto quiere decir que las puertas de las oficinas deben tener una altura de 163.225 cm para que 95% de la población pueda usar el acceso fácilmente. Del percentil 95 en adelante se les dificultará el acceso. Para aplicar un percentil que se encuentra por debajo de la media, suponer que se quiere calcular la distancia necesaria entre el usuario y el tablero de control de cierta máquina. Para esto es importante considerar a los usuarios que tienen un alcance menor del brazo, para que no se les dificulte alcanzar el tablero, pues si ellos lo pueden alcanzar, una persona de estatura más alta también lo podrá alcanzar. Se considerará, por ejemplo, el percentil 10. Una vez sacando muestras de la población, se obtiene que el alcance promedio de brazo tiene una media de 68 cm con una desviación estándar de 2 cm. Resolviendo: p10 68 1.28(2) p10 65.44 8.3 Áreas de la ergonomía 193 Esto quiere decir que los trabajadores con un alcance máximo del brazo de 65.44 cm o más utilizarán el tablero sin dificultades, esto es, 90% de la población. El otro 10% de la población quedará fuera del alcance, teniendo que hacer un esfuerzo extra para estirar el brazo y alcanzar. Como se vio en los ejemplos anteriores, existe mucha variabilidad, sobre todo en poblaciones grandes, lo que hace dif ícil incluir a toda la población en los diseños ergonómicos. No obstante, con estos estudios se logra incluir a la mayor parte de la población, dependiendo del percentil utilizado, con el fin de que los diseños estén centrados lo mejor centrados en el usuario. Existen otros factores de variabilidad, además de las mediciones, que deben considerarse al utilizar los datos antropométricos, como el género, diferencias étnicas, edad, la nacionalidad, entre otros. El intervalo del movimiento que permite el asiento de un automóvil es un ejemplo donde se aplica el diseño, basándose en datos antropométricos, que permite un ajuste adecuado para cada usuario. La selección de equipo de protección personal, de mobiliario, la disposición de elementos de control de tableros, así como el diseño de estaciones de trabajo, de herramientas y dispositivos de ensamble, son ejemplos donde resulta conveniente contar con datos antropométricos de la población para la que se destina el producto o espacio de trabajo. En estos estudios es de suma importancia desarrollar una apreciación de la antropometría, ser capaz de medir correctamente los datos antropométricos y aplicar técnicas de la antropometría a la compra de nuevas herramientas y a la modificación de estaciones de trabajo. 8.3.2 Biomecánica La biomecánica es la aplicación de los principios mecánicos al hombre, tanto en movimiento como en reposo, donde se busca unir la mecánica con el estudio de la anatomía y la fisiología, ya que el ser humano se conforma de varias estructuras mecánicas, como huesos (sus palancas), músculos (como muelles), articulaciones (los elementos de rotación). El objetivo principal de la biomecánica es el estudio del cuerpo con el fin de obtener un rendimiento máximo, resolver algún tipo de discapacidad o diseñar tareas y actividades para que la mayoría de las personas puedan realizarlas sin riesgo de sufrir daños o lesiones. Las áreas de investigación de las que se encarga la biomecánica son el movimiento manual de cargas, microtraumatismos repetitivos y los trastornos por traumas acumulados. Un área de gran importancia es la evaluación y rediseño de tareas y puestos de trabajo, que evalúan causas para prevenir futuras lesiones. La biomecánica se basa en el conjunto de conocimientos de diversas áreas, como la medicina del trabajo, la fisiología, la antropología y la física. 194 Capítulo 8 Ergonomía La búsqueda de límites de peso y repetición durante el movimiento manual de cargas, lesiones biomecánicas y microtraumatismos repetitivos son problemas cada vez más numerosos y frecuentes en el mundo industrial; son los problemas que atañen a los ergonomistas biomecánicos. Una de las áreas donde es importante la participación de los especialistas en biomecánica es en la evaluación y rediseño de tareas y puestos de trabajo para personas que han sufrido lesiones o han presentado problemas por estos microtraumatismos. El movimiento manual de cargas presenta múltiples problemas, que pueden considerarse como accidentes directos (golpes, rasguños, etc.), que causan lesiones concretas y generalmente traumáticas, o lesiones que se producen por un mal diseño de la tarea, en el cual se va acumulando poco a poco hasta degenerar en dolores o lesiones de espalda, tanto en miembros superiores como en miembros inferiores. Los microtraumatismos repetitivos (MTR) o trastornos por traumas acumulados son pequeñas lesiones que se producen al realizar tareas que demandan movimientos repetitivos, mismos que van causando pequeñas lesiones prácticamente imperceptibles, pero que finalmente se manifiestan después de un tiempo, que varía desde algunos meses hasta años. Como consecuencia de éstos, las propiedades mecánicas y la funcionalidad de los tejidos afectados van disminuyendo, esto provoca la presencia de daño o dolor persistente en articulaciones, músculos, tendones y otros tejidos blandos. El uso excesivo de fuerza o en posiciones no adecuadas, puede provocar lesiones que se resienten hasta un tiempo después de realizados los esfuerzos, mientras que en los esfuerzos por contacto, provocados por la presión continua de una superficie dura o una esquina contra los tejidos blandos de alguna extremidad, provoca el decremento del flujo de sangre y la compresión de nervios. Para evitar estos problemas es importante realizar la actividad de forma confortable y segura, con el cuerpo en una posición estable, en una adecuada relación entre las partes del cuerpo y el soporte provisto por los pies, el asiento y cualquier otra superficie que soporte el peso del cuerpo y miembros en el espacio de trabajo. Los conceptos básicos son mecánica, fuerza, materia, peso, espacio y presión. Mecánica: es el estudio de las fuerzas y sus efectos. Se divide en estática, que es cuando un cuerpo está en equilibrio (reposo o movimiento uniforme), y dinámica, cuando el cuerpo se encuentra en movimiento involucrando factores como desplazamiento, velocidad, aceleración, traslación y rotación. Fuerza: es el resultado de la interacción entre dos cuerpos. La interacción puede ser a distancia o por contacto, mientras que el origen puede ser interno o externo. 8.3 Áreas de la ergonomía 195 FIGURA 8.4 Sus características son: valor, dirección, sentido y punto de aplicación, las cuales están representadas por un vector, donde el valor del vector representa la longitud, la dirección es la localización de su trazado, el sentido es la punta de la flecha y el punto de aplicación es donde está colocado. Para lograr una mayor exactitud se utiliza un diagrama de fuerzas, como se muestra en la figura 8.4. Espacio: las fuerzas pueden actuar a lo largo de una sola línea, en un plano único o en cualquier dirección del espacio. El espacio se utiliza para describir el movimiento humano, la figura 8.5 muestra los planos: • • • • Plano frontal o coronal, divide el cuerpo en dos mitades, anterior y posterior (x, y), y proyecta los movimientos de abducción y aducción. Plano sagital medio, separa al cuerpo en dos mitades, derecha e izquierda (y, z), y proyecta los movimientos de flexión y extensión. Plano trasversal u horizontal, divide el cuerpo en dos partes, superior e inferior (x, z), y proyecta el movimiento de rotación. Plano de Frankfurt, que es horizontal y pasa por la parte superior de la abertura de la oreja y por el punto inferior de la cavidad ocular. Este plano también es importante para realizar estudios antropométricos, ya que si la persona no está parada perfectamente vertical (ni con la cabeza muy agachada ni muy levantada), las mediciones se pueden modificar, alterando los resultados finales. 196 Capítulo 8 Ergonomía Plano frontal Plano sagital Plano transversal FIGURA 8.5 Materia: masa que ocupa espacio. Para poder aplicar los principios de la mecánica al movimiento se utiliza el concepto de centro de gravedad. El punto donde está situado el centro de masas de un cuerpo es la pelvis (figura 8.6); sin embargo, el punto exacto varía según el tipo morfológico, la edad y el sexo. Peso: fuerza de atracción de la Tierra que se ejerce sobre una masa. Las unidades de medición son newtons (N) o kilogramos (kg). Presión: indica cómo está distribuida la fuerza sobre una cierta superficie. Su ecuación está dada por: P F/A FIGURA 8.6 197 8.3 Áreas de la ergonomía TABLA 8.2 Porcentaje de pesos Parte del cuerpo Cabeza y cuello Tronco con cabeza y cuello Porcentaje del total del cuerpo 7.9 56.5 Brazo 2.7 Antebrazo 1.5 Mano 0.6 Muslo 9.7 Pierna 4.5 Pie 1.4 donde P presión, F fuerza, A área. Las unidades son pascales (Pa). La resolución de los problemas biomecánicos buscan aplicar los conceptos f ísicos de la mecánica al sistema músculo-esquelético humano. Se utilizan dibujos a base de líneas para hacer la representación de las personas y sus articulaciones. Estos diagramas permiten: 1. 2. 3. 4. 5. Ver qué partes del cuerpo actúan en la actividad. Determinar el lugar donde se genera el movimiento. Anotar si hay más de un movimiento. Identificar articulación y músculos específicos. Decidir en qué plano o planos se puede analizar mejor el movimiento. 6. Determinar dónde y cuándo actúa la gravedad en el cuerpo humano, en las herramientas u otros objetos que manipulamos. 7. Determinar qué fuerzas son operativas en el movimiento específico de partes del cuerpo, objetos o herramientas. 8.3.3 Fisiología La fisiología estudia los procesos f ísicos y químicos en la realización de funciones vitales, desde una célula hasta el comportamiento del ser humano en su totalidad con su entorno y el medio ambiente. Las actividades que involucra son reproducción, crecimiento, metabolismo, respiración, excitación y contracción. La fisiología estudia cómo el cuerpo se adapta a la temperatura y a condiciones ambientales extremas, y nos permite saber cómo soportar el estrés que nos impone el medio ambiente. La tensión se da por cambios en el metabolismo, incremento del ritmo cardiaco y respiración, y por el incremento en la presión. Existen dos áreas que la integran: la fisiología del trabajo y la fisiología ambiental: 198 Capítulo 8 • • Ergonomía La fisiología del trabajo trata con requerimientos energéticos y proporciona estándares aceptables sobre el ritmo de trabajo, carga de trabajo y requerimientos nutricionales. La fisiología ambiental estudia el impacto de condiciones f ísicas de trabajo, como los impactos térmicos, de ruido, vibración, iluminación y establecimiento de los requerimientos óptimos. 8.3.4 Ergonomía ambiental Área de la ergonomía que se encarga del estudio de las condiciones f ísicas que rodean al ser humano y que influyen en su desempeño al realizar diversas actividades, como: • • • • Ambiente térmico Nivel de ruido Nivel de iluminación Vibraciones Ambiente térmico: para el ser humano es de suma importancia mantener y regular la temperatura interna del cuerpo, el cual tiende a igualar su temperatura con el ambiente que lo rodea. La regulación térmica del cuerpo requiere de un adecuado balance entre la cantidad de calor que produce el metabolismo, la actividad muscular y el calor que pierde hacia el ambiente, con el fin de mantener la temperatura interna entre 36 y 37C. Para esto es importante proveer un ambiente que permita establecer dicho equilibrio y evite el estrés térmico. En el mundo del trabajo son más frecuentes las exposiciones al calor elevado que las exposiciones al frío intenso, por lo que se considera al calor como contaminante. El calor es el único contaminante que es generado por el propio organismo humano, incluso el hombre posee una gran resistencia a él en comparación con otras agresiones, como lo son las químicas. Las respuestas fisiológicas en relación al calor se dan como incremento de la circulación de la sangre en las proximidades de la piel y como sudoración. La aclimatación al calor se manifiesta a través de la disminución del ritmo cardiaco, incremento de la sudoración y la reducción de la concentración salina en el sudor. Esta aclimatación se logra en periodos breves, aproximadamente seis días. La única forma de conocer la información sobre la respuesta individual de disconformidad con el ambiente térmico la constituyen las manifestaciones del sujeto. Las actividades de los ergonomistas dedicados a esta área se enfocan en encontrar las condiciones que faciliten la regulación térmica del cuerpo, la evaluación y diseño de la vestimenta y equipo de seguridad personal adecuados para las condiciones climáticas donde se realiza el trabajo y la determinación de la carga de trabajo y su duración, con base en las condiciones ambientales. 8.3 Áreas de la ergonomía 199 El trabajo de los operadores en altos hornos de fundición de acero, el trabajo exterior durante el invierno en países nórdicos o en ambientes intermitentes de temperatura son algunos ejemplos de trabajos en condiciones climáticas extremas. Mecanismos de intercambio térmico: • • • Convección. Intercambio de calor entre la piel y el aire. Radiación. Intercambio de calor en forma de rayos infrarrojos entre la piel y los objetos que rodean al cuerpo. Evaporación. Intercambio de calor entre la piel y el aire mediante la evaporación del sudor. Independientemente del nivel de agresividad ambiental, los criterios de valoración han de tener en cuenta otra variable independiente: el nivel de actividad, el cual se mide en kilocalorías (kcal). La magnitud del calor intercambiado depende de las características del vestido y de cuatro variables ambientales: 1. 2. 3. 4. Temperatura del aire. Temperatura radiante media. Velocidad del aire. Humedad del aire. En situaciones de confort debe cumplirse una relación entre tres tipos de variables: a) Características del vestido: aislamiento y área total del mismo. b) Características del tipo de trabajo: carga térmica metabólica y velocidad del aire. c) Características del ambiente: temperatura seca, temperatura radiante media, presión parcial del vapor de agua en el aire y velocidad del aire. Reducir las aportaciones térmicas exteriores de influencia desfavorable en el ambiente térmico interior y las que provienen de fuentes de calor inherentes al proceso de fabricación, son las actividades a realizar para la protección contra el calor. De esta forma, se puede actuar sobre la fuente de calor de varias formas. Externamente: puede hacerse una protección eficaz actuando simultáneamente sobre tres características de la pared: 1. Aumento del coeficiente de reflexión, con el fin de reducir el flujo del calor absorbido. 2. Aumento del coeficiente del cambio de calor externo, de forma que facilite la evacuación hacia el exterior de la mayor parte del flujo de calor absorbido. 200 Capítulo 8 Ergonomía 3. Aumento de la resistencia térmica del muro, de manera que se mantenga la temperatura interna lo más baja posible. Internamente: por medio de fuentes de calor convectivas y fuentes radiantes: 1. Actuando sobre el medio: es posible corregir la temperatura del aire en el interior de los edificios mediante una ventilación adecuada, utilizando el aire exterior o bien el aire previamente tratado. 2. Ajustando la velocidad del aire: la ventilación localizada puede realizarse con aire recogido in situ, o con aire previamente enfriado. 3. Actuando sobre el individuo: por medio de una reducción de la producción de calor metabólico, limitando la duración de la exposición o creando un microclima en el puesto del operario. Los vestidos de protección contra el calor deben reducir la carga térmica soportada por el hombre, por lo que fundamentalmente han de cumplir lo que sigue: 1. No deben ser inflamables. 2. Deben oponerse a la penetración del calor por el aire (convección). 3. Han de eliminar el calor que penetra, a través del vestido y el producido por el organismo. Ambiente lumínico: la iluminación es un factor ambiental que interesa al ergonomista por su influencia en el desempeño de las tareas de los humanos. Fundamentalmente se estudian los factores de la visión, las fuentes de iluminación, así como las características y requerimientos de las tareas y el entorno. Una iluminación óptima aumenta la capacidad de trabajo y la percepción visual, evitando posibles errores. La iluminación puede interferir en: • • • • • • La adecuada visualización de los objetos y entornos. La eficiencia y eficacia del trabajador. Proporcionar la información adecuada y oportuna de señalización. El confort. La salud visual. La adecuada percepción e interpretación de señales visuales por parte de los trabajadores. La visión es un fenómeno complejo que abarca fenómenos f ísicos, biológicos y psicológicos. Comienza con la formación de la imagen al incidir la luz sobre un objeto. Esta imagen, por reflejo de las ondas, llega al aparato ocular; la retina convierte la energía electromagnética en energía nerviosa y reproduce en la mente una copia de la imagen inicial. Una vez reproducida la imagen, el cerebro la interpreta, esto se puede apreciar en la figura 8.7. 8.3 Áreas de la ergonomía 201 Estímulo Centro nervioso Receptor Vía de comunicación FIGURA 8.7 Facultades visuales: • • • Agudeza visual: es la facultad de distinguir pequeños objetos muy próximos entre sí. Acomodación: es la facultad de formar una imagen nítida de un objeto que está a una distancia determinada. Adaptación: es la capacidad del ojo para ajustar las diferentes iluminaciones de los objetos. El ojo puede adaptarse rápidamente a un aumento de iluminación, pero el proceso inverso es mucho más lento. Unidades fotométricas: una fuente luminosa es todo aquello capaz de producir luz. • • • • • Flujo radiante: cantidad total de energía radiada por unidad de tiempo [W]. Flujo luminoso: fracción del flujo radiante emitido bajo la forma de radiación visible [Lm]. Intensidad luminosa: flujo luminoso emitido por una fuente en una dirección dada [Cd]. Lumen: cantidad de luz que se escapa de una superficie de 1 m2 recortada en una esfera de 1 m de radio y cuyo centro será la fuente puntual de una candela. Iluminancia: flujo luminoso recibido por una superficie (1 lux 1 lumen/m2) • Iluminancia de una superficie en una dirección determinada: relación entre la intensidad luminosa emitida en dicha dirección y la superficie vista por el observador situado en la misma dirección. 202 Capítulo 8 Ergonomía Nivel de iluminación: para evitar fatiga, el ergónomo debe cuidar el nivel de iluminación y la relación de luminancias entre el plano de trabajo y el entorno. Los niveles de iluminación se encuentran en las reglas UNE y los manuales de iluminación. Algunos valores son: Salas de dibujo y similares 800–1500 lux Grandes espacios de venta 500–1000 lux Oficinas 400–800 lux Archivos, pasillos, etc. 100–200 lux La iluminación se puede lograr con luz natural, luz artificial o luz mixta. La existencia de ventanas genera una situación psicológica favorable. Influencia de las condiciones reales: la edad del observador es una condición que influye en el ambiente de trabajo, así como la reflexión del fondo puede provocar que se reduzca el contraste de la tarea, lo que puede contrarrestar aumentando el nivel de alumbrado. Tipos de alumbrado: • • • Alumbrado directo: la totalidad del flujo emitido está concentrada sobre un plano útil. Alumbrado indirecto: la totalidad del flujo emitido está dirigida al techo o a lo alto de las paredes. Alumbrado mixto: se combinan el alumbrado directo y el indirecto. Algunas características: • • • El brillo en una zona de trabajo produce disconfort, por lo que se debe buscar una zona de trabajo donde no exista. Para el confort visual, la iluminación uniforme es la mejor opción. Los colores son empleados como auxiliares del hombre en sus funciones cotidianas. Los colores ayudan a tener seguridad, visibilidad y limpieza. Ambiente sonoro: el sonido es cuando las variaciones de presión del aire ambiente son detectadas por el oído humano, mientras que el ruido es todo fenómeno acústico que produce una sensación generalmente desagradable. En 1954, el Instituto Nacional de Estándares Americanos (ANSI) realizó una evaluación para conocer la relación entre la pérdida auditiva y los niveles de exposición de ruido, presentando como conclusión que la pérdida auditiva está relacionada con los tiempos de exposición, especialmente cuando los niveles de ruido son elevados. 203 8.3 Áreas de la ergonomía El objetivo es encontrar la forma de reducir, aislar o controlar la emisión de ruido para lograr una condición ambiental óptima para el desempeño, salud y seguridad de los trabajadores. Las principales características en un ambiente sonoro son: 1. Campo sonoro. Se divide en tres campos: a) Campo libre. En un espacio libre una fuente sonora irradia ondas esféricas. b) Campo difuso. Si las ondas sonoras encuentran obstáculos y se reflejan sobre las paredes. c) Campo real. Combinación de ambos campos. 2. Potencia acústica. Una fuente sonora irradia una cierta cantidad de energía o potencia acústica expresada en watts. La intensidad sonora es el flujo de energía media que atraviesa 1 m2 de superficie perpendicular a él en 1 s, y se expresa en W/m2. 3. Periodo de frecuencia y longitud de onda: a) El periodo es el tiempo necesario para llevar a cabo una oscilación completa o ciclo. b) La frecuencia es una medida inversa al periodo. Corresponde al número de ciclos por segundo y se expresa en hertz. c) La longitud de onda es igual al producto de la velocidad por el periodo, esto es, F V * T. Depresión Presión Depresión Presión Estas características se muestran en la figura 8.8. 4. Presión acústica: el oído humano es sensible a las variaciones de presión comprendidas entre 0.00002, que corresponden a un ruido emitido por la caída de una hoja, y 102 Pa para frecuencias entre 16 y 2000 Hz. Las presiones que sobrepasan 102 Pa provocan daños irreversibles en el oído. Para establecer comparaciones prácticas, FIGURA 8.8 Amplitud (A) Tiempo Periodo (T) Longitud de onda (x) Distancia 204 Capítulo 8 Ergonomía 90 dB 1 FIGURA 8.9 Punto fuerte del sonido 84 dB 74dB 2 3 4 Distancia (metros) se ha recurrido a una escala logarítmica cuya unidad es el decibel (dB). 5. Propagación de los sonidos. Si una fuente emite una energía W en el espacio, esta energía se reparte uniformemente, pero cuanto más nos alejamos de la fuente, la energía emitida se repartirá sobre una superficie mucho mayor. Véase la figura 8.9. Los efectos del ruido más importantes son: molestias; efecto de enmascaramiento, que consiste en que las palabras de una persona no puedan ser comprendidas por otra, aunque su tono de voz sea de nivel adecuado, y por último, los efectos patológicos, donde los ruidos pueden provocar lesiones auditivas, rotura del tímpano e incluso puede afectar al sistema circulatorio, disminuyendo la actividad de los órganos digestivos, acelerando el metabolismo y el ritmo respiratorio. Existen medios de protección para evitar los daños anteriores, éstos pueden ser a nivel de máquinas y locales de trabajo, como el encapsulado de máquinas, aislamiento de máquinas respecto al suelo o el empleo de paneles absorbentes, o a nivel de oído, como los protectores auditivos, la construcción de cabinas insonorizadas y la rotación de puestos para disminuir el tiempo de exposición; un ejemplo se aprecia en la figura 8.10. A pesar de todo, se pueden advertir señales de averías o mal funcionamiento en la maquinaria y equipo de trabajo por el ruido que producen, resultando útil en algunas situaciones. Vibraciones: el avance de la tecnología y su intervención en los puestos de trabajo ha provocado que más trabajadores estén expuestos a vibraciones, las cuales en algunos casos no tienen consecuencias, pero en otros puede afectar a la salud y capacidad de trabajo de quien se expone a ellas. Las áreas del cuerpo que generalmente reciben y transmiten las vibraciones son los pies, las manos y la zona de los glúteos, dependiendo de la actividad que se realice y la posición en que se encuentra el operador. Pocas 205 Antes del tratamiento 8.3 Áreas de la ergonomía Máquina Cascos Material absorbente Máquina Después del tratamiento Aislante Paneles absorbentes Aislante FIGURA 8.10 veces los daños producidos a la salud son inmediatos, la exposición prolongada puede causar efectos crónicos que se manifiestan después de un tiempo. Las principales fuentes de vibraciones son los vehículos de transportes por carretera, aéreos y marítimos, la maquinaria agrícola y de obras públicas y las herramientas manuales. Cuando el cuerpo humano se encuentra sometido a vibraciones presenta algunas reacciones y campos que pueden afectar el adecuado desempeño, entre los que destacan: • • • • El aumento moderado del consumo energético de la frecuencia cardiaca y respiratoria. La aparición de reflejos musculares con función de protección, que contraen a los músculos afectados por las vibraciones y los mantienen así mientras sean sometidos a esta situación. La dificultad en el control de la vista, reducción en la agudeza y distorsión del cuadro visual. La dificultad en la coordinación de los movimientos. 206 Capítulo 8 Ergonomía FIGURA 8.11 Las vibraciones, además de efectos f ísicos pueden provocar algunos efectos psicológicos que pueden disminuir la capacidad de trabajo del ser humano. Las vibraciones sobre el sistema brazo-mano se presentan con mucha frecuencia en el ámbito industrial en operaciones donde se utilizan martillos neumáticos, taladros, sierras y otros equipos que transmiten vibraciones al operador, como los mostrados en la figura 8.12. 8.3.5 Ergonomía cognitiva Es la disciplina científica que estudia los aspectos conductuales y cognitivos de la relación entre el hombre y los elementos f ísicos y sociales del lu- FIGURA 8.12 8.3 Áreas de la ergonomía 207 TABLA 8.3 Efectos sobre el organismo de acuerdo con la frecuencia de vibraciones Frecuencia de vibración Efecto sobre el organismo Muy baja <1 Hz Trastorno en el sistema nervioso central. Puede producir mareo y vómito. Baja 1-20 Hz Hernias, agravan lesiones raquídeas, variación del ritmo cerebral, dificultades de equilibrio. Alta 20-1000 Hz Calambres, trastornos de la sensibilidad, aumento en la incidencia de enfermedades del estómago. gar de trabajo (o en general, ambiente), y más concretamente cuando esta relación está mediada por el uso de máquinas o artefactos. Los ergonomistas del área cognoscitiva tratan con temas tales como: • • • • El proceso de recepción de señales e información, la habilidad para procesarla y actuar con base en la información obtenida, conocimientos y experiencia previa. Conocer el número de canales de información que puede atender el usuario a un mismo tiempo, y cuántas tareas puede desarrollar simultáneamente. Diseño de tableros de señalización y control para la interacción hombre-máquina, que representan el medio de intercambio de información entre ambas partes; su diseño puede facilitar o incrementar la dificultad de la tarea y la posibilidad de cometer algún error. Diseño e implementación de sistemas de realidad virtual y reconocimiento de voz en los controles de máquinas y procesos. Esta área de la ergonomía tiene gran aplicación en el diseño y evaluación de software, tableros de control y material didáctico, como los mostrados en la figura 8.13. La ergonomía adquirió fuerza al conjuntar el trabajo de especialistas en las áreas de ingeniería, medicina y psicología, principalmente, aunque otras áreas del conocimiento también han contribuido para enriquecerla. La contribución de la psicología a la ergonomía se manifiesta en forma más evidente en el área de la ergonomía cognitiva. La interacción entre el humano y las máquinas o los sistemas depende de un intercambio de información en ambas direcciones, es decir, entre el operador y el sistema. El operador controla las acciones del sistema o de la máquina por medio de la información que introduce y las acciones que realiza sobre éste, mientras que el sistema alimenta de cierta información al usuario por medio de señales, para indicar el estado del proceso o las condiciones del sistema. De la adecuada recepción e interpretación del 208 Capítulo 8 Ergonomía FIGURA 8.13 usuario dependerá la toma de decisiones, con el fin de mantener las condiciones o modificarlas para alcanzar el objetivo deseado. La figura 8.14 muestra un esquema de esto. Por lo general, cuando se diseñan máquinas o sistemas se hacen modelos muy explícitos y detallados para su construcción, funcionamiento, precisión y comportamiento, pero casi nunca se desarrollan modelos semejantes sobre el usuario y su comportamiento. En ergonomía, esta tarea corresponde a los profesionales especializados en psicología o ciencias del conocimiento, con el fin de desarrollar y aplicar modelos que puedan utilizarse en el diseño de procesos de intercambio de información, buscando que éstos sean óptimos, adecuados y compatibles con el usuario. Los avances en la microelectrónica, la automatización y la tecnología de la información han provocado importantes cambios en los requerimientos de muchos puestos de trabajo. Antes, la mayoría de las actividades dependía de la habilidad y capacidad f ísica del operador, ahora se ha incrementado la dependencia en la percepción y procesamiento de señales Usuario Intercambio de información Máquinas Sistemas Toma de decisiones Interpretación FIGURA 8.14 Señales: estado del proceso e información del sistema 8.3 Áreas de la ergonomía 209 analógicas y digitales para el control de las actividades y los procesos; además, depende en mayor medida de los conocimientos previamente adquiridos y el entrenamiento del operador para actuar en diversas situaciones. En la medida que se desarrolla la tecnología, las tareas para el operador se tornan más abstractas e indirectas, con un mayor énfasis en el uso y manipulación de símbolos. Este avance de la tecnología y la intervención de las computadoras ha presentado ventajas en los procesos industriales y en la vida cotidiana, pero no ha estado libre de problemas, ya que, por lo general, cuando se presenta una tecnología diferente al esquema conocido por el usuario se requiere de cierta capacitación y adaptación para el cambio. Con este cambio en la tecnología y la interacción hombre-máquina es más apropiado considerar al operador como alguien que resuelve problemas y toma decisiones, y no como un simple componente del sistema. Esta situación ha presentado la necesidad de medir la carga mental que tiene el operador por la actividad que realiza. Carga mental: la carga mental está fundamentalmente referida a la proporción de la capacidad limitada del operador que se requiere para ejecutar una tarea determinada, y ha llegado a ser un importante factor a considerar en el diseño y evaluación de sistemas de trabajo. La medición de la carga mental resulta útil para comparar métodos alternativos o diseños, evaluar prototipos, identificar aspectos estresantes del trabajo y para evaluar el desempeño del operador; sin embargo, esta medición no es directamente observable, por lo que se han desarrollado métodos indirectos para poder realizarla, basados en respuestas fisiológicas, psicológicas o en la evaluación del desempeño de la tarea principal, a través de medir el error cometido. Interfaces de comunicación: el diseño de la interfaz es el elemento decisivo para poder usar el sistema. El que un instrumento de software sea utilizable depende de la corrección del modelo mental que elabora el usuario durante su interacción con el sistema. Dicho modelo se forma en gran parte a través de la interpretación de las acciones que llevan a cabo el sistema y su estructura visible, es decir, a través del esquema de su interfaz. Para diseñar una interfaz que pueda inducir en la mente del usuario un modelo correcto del sistema, deberá adoptarse un enfoque orientado al usuario. El diseño orientado al usuario consta principalmente de tres elementos: 1. Los usuarios (teletrabajadores) deben participar en todas las etapas del proceso de diseño. 2. El proceso de diseño se centra en la actividad laboral para la que se utilizará el sistema, y no en las posibilidades tecnológicas. 3. Deben preverse los ciclos: análisis de la actividad laboral-proyectoprototipo-evaluación. 210 Capítulo 8 Ergonomía Percepción visual: la percepción visual depende de la actitud genérica del sujeto, del objeto a ver y del escenario visual en el que se sitúa el objeto. Las características de la percepción visual se podrían resumir en: 1. Involuntaria: la percepción visual es automática y no requiere volición. 2. Variabilidad: dos estímulos visuales idénticos se perciben con intensidad variable en función del estado psicofísico del sujeto (atención, fatiga, estrés, etc.). 3. Educable: la formación y la experiencia mejoran la capacidad perceptiva y, sobre todo, la rapidez de respuesta frente al estímulo. Los campos de color influyen decisivamente en el centrado del campo visual para una percepción adecuada. Psicología del color: la cromoterapia nos enseña a utilizar la proyección de luz de diferentes colores directamente sobre el cuerpo humano, obteniendo diversas reacciones, como relajamiento, activación, fortalecimiento, desbloqueo, entre otras. El rojo tiene una poderosa acción estimulante sobre el estado de ánimo del ser humano, por lo que debe ser usado con cautela. En áreas muy extensas puede ser opresivo e irritante; sin embargo, usado en forma adecuada tiende a dar vida y alegría a las superficies, causando la sensación de aumento de volumen y temperatura de los ambientes. El verde tiene un efecto calmante y relajante, usado en exceso torna los ambientes monótonos. Físicamente causa la impresión de liviano y distante. El azul tiene un efecto calmante y es usado en ambientes para reposar; si las áreas son muy extensas tornan los ambientes fríos y vacíos. Físicamente causa la ilusión que los ambientes son frescos y da sensación de distante. El amarillo estimula el sistema nervioso central e induce a la jovialidad; por ser un color de alta luminosidad es usado con ventaja en ambientes con poca luz natural y para señalizaciones. Físicamente causa la sensación de aumento de temperatura y de volumen de los ambientes. El naranja es estimulante y provoca bienestar, alegrando los ambientes si es usado en pequeñas áreas. Usado en exceso se torna irritante. La sensación f ísica que provoca es aumento de la temperatura y volumen de los ambientes. El blanco es estimulante y alegre, aclara los ambientes; usado en exceso provoca la sensación de cansancio a la vista. Físicamente da la ilusión de aumento de volumen de los ambientes. El negro es un color que normalmente se usa en combinaciones con otros colores. Usado solo, da la sensación de aumento de temperatura y opresión y disminución del volumen de los ambientes. 8.3 Áreas de la ergonomía 211 8.3.6 Ergonomía de diseño y evaluación Conocer los límites f ísicos del cuerpo humano tiene una aplicación de gran utilidad práctica para la ergonomía, pues sirve como guía en el diseño y la evaluación de tareas y actividades; en el diseño de estaciones de trabajo, mobiliario, herramientas y utensilios, así como el descanso requerido, de acuerdo con el tiempo y tipo de actividad que se realiza. El objetivo del diseño en la ergonomía es prevenir y/o eliminar situaciones que pongan en riesgo la seguridad del trabajo mediante la verificación y/o instalación de reglamentos, procedimientos de operación y dispositivos adecuados. Los ergonomistas de diseño se encargan de la participación durante el diseño y la evaluación de equipos, sistemas y espacios de trabajo, utilizando como base conceptos y datos obtenidos en mediciones que se obtienen a través de mediciones antropométricas, evaluaciones biomecánicas, características sociológicas y costumbres de la población a la que está dirigido el diseño. Para que la mayoría de los usuarios pueda efectuar su trabajo en forma segura, eficiente y aumentando su productividad, es necesario considerar las diferencias entre los usuarios en cuanto a su tamaño, distancias de alcance, fuerza y capacidad visual. Al estar expuesto a deficiencias, tanto del lugar de trabajo como del equipo, se pueden provocar microtraumatismos repetitivos, lesiones, aparición o agravación de una LER, problemas de circulación o algún otro tipo de problema. Sistemas hipermedia: consisten en la unión del hipertexto y multimedia, son utilizados para el control de procesos. Su funcionamiento es a base de ordenadores industriales y sistemas SCADA (supervisores para que la información que el usuario necesite esté a la mano). Diseño de puestos de trabajo: un puesto de trabajo es el lugar que un trabajador ocupa cuando desempeña una tarea. Algunos ejemplos son las cabinas o mesas de trabajo donde se manejan las máquinas (como la mostrada en la figura 8.15), se ensamblan piezas o se efectúan inspecciones, las FIGURA 8.15 212 Capítulo 8 Ergonomía mesas de trabajo desde la que se manejan las computadoras e inclusive las consolas de control. Un criterio que se utiliza para evaluar el diseño del espacio de trabajo es el intervalo de diferentes posiciones estables que pueden ser adoptadas y las diferentes superficies que proveen un soporte adecuado al operador. Para evaluar la tarea se considera el tiempo que se requiere mantener una sola postura, el esfuerzo muscular requerido y los ligamentos que se mantienen bajo tensión. Los factores que influyen para el diseño de un puesto de trabajo son: las tareas, herramientas, medio ambiente (iluminación, ruido, temperatura), mobiliario, estaciones de trabajo, antropometría y las pantallas de visualización de datos. Un buen diseño del mismo permite cambiar de postura, realizar distintas tareas, dejar cierta latitud para adoptar decisiones, darle sensación de utilidad, facilitar la formación adecuada y los horarios de trabajo y descanso, así como los periodos de ajuste. En el diseño del área de trabajo influyen los ciclos de trabajo y el manejo de materiales y levantamientos. Diseñar espacios de trabajo donde se consideran los rasgos y capacidades de la mayor parte de los usuarios ayuda a reducir el esfuerzo y estrés necesario en los trabajadores, que resulta en un trabajo más eficiente y productivo. El diseño de equipo y herramientas es uno de los aspectos más influyentes en la seguridad, eficiencia y productividad del trabajador. En las últimas décadas se han dado cambios importantes en los equipos y sistemas de manufactura, con el fin de hacer más eficientes los sistemas de producción, pero esto ha provocado que también se vuelvan más complejos. Un problema que se ha presentado con estos cambios es que muchos espacios de trabajo y máquinas que han sido utilizadas por bastante tiempo, no reciben la modificación y rediseño necesarios, por lo que las deficiencias podrían aumentar o acumularse. Para que un sistema funcione adecuadamente, no basta con que las máquinas operen de forma eficiente, es necesario que sean utilizables a pesar de las limitaciones del operador. El buen diseño, tanto en un puesto de trabajo como en su área, permite obtener como ganancia una disminución en costos médicos asociados, reducción de días perdidos o no laborados y disminución de gastos médicos directos. Así mismo, existen beneficios para el personal, como son la eliminación de “estresores” ergonómicos, dando como resultado un mejoramiento tanto de la calidad como del ambiente laboral, lo que le permite al operador tener más control sobre el proceso y mantenerse enfocado en el trabajo, logrando un incremento de la productividad y la calidad. En forma general, se puede decir que el desempeño de un operador es mejor cuando se libera de elementos distractores que compiten por su atención con la tarea principal, ya que cuando se requiere dedicar parte del esfuerzo mental o f ísico para manejar las distracciones ambientales, hay menos energía disponible para el trabajo productivo. 8.3 Áreas de la ergonomía 213 Otro aspecto importante en el área del diseño es el rediseño de los puestos de trabajo para los operadores que se reincorporan a la actividad después de haber sufrido alguna lesión. Convendría revisar las causas que provocaron el daño para modificarlas, y adaptar el puesto y la tarea para que el operador no vuelva a sufrir por el mismo problema, inclusive para que no afecte a los otros operadores. 8.3.7 Ergonomía de necesidades específicas Área de la ergonomía que se enfoca en el diseño y desarrollo de equipo para personas que presentan alguna discapacidad f ísica (actualmente llamadas personas con capacidades diferentes), adultos mayores, mujeres embarazadas, para la población infantil y escolar, y el diseño de microambientes autónomos. La diferencia principal que presentan estos grupos específicos radica en que sus miembros no pueden tratarse en forma “general”; esto involucra las aptitudes y habilidades, ya que las características y condiciones para cada uno son diferentes, y en muchas ocasiones no presentan una distribución normal, como la población en general, o son diseños que se hacen para una situación única y una persona específica, como si fuera un traje hecho a la medida. Los diseños se elaboran para situaciones únicas o usuarios específicos, es decir, para cualquier grupo que se salga de las medidas generales. Se interviene en el desarrollo del equipo para personas con alguna discapacidad f ísica, como pueden ser el diseño y evaluación de sillas de ruedas, muletas o bastones, y en la adaptación y adecuación de líneas de producción y puestos de trabajo, instalaciones de oficinas y casas, así como los medios de transporte. La figura 8.16 ilustra algunos de estos ejemplos. En realidad no existe una diferenciación entre hombres y mujeres, es decir, no se tratan como grupos específicos por separado. Accesibilidad: la accesibilidad indica que algo es de fácil trato, inteligible y comprensible. FIGURA 8.16 214 Capítulo 8 Ergonomía La igualdad de oportunidades para todas las personas, el derecho a acceder, utilizar y transitar en los espacios públicos, es un principio que en las sociedades está cada vez más presente, aunque todavía nos encontramos con situaciones que limitan las oportunidades de participar en la vida de la comunidad. Las personas más afectadas por estas barreras son aquellas que presentan alguna disminución en sus capacidades físicas, intelectuales, sensoriales, motoras o intelectuales, de forma permanente o temporal; sin embargo, también afectan a grupos de la sociedad, como los ancianos, niños, analfabetas, o personas que por circunstancias transitorias encuentran dificultades para disponer del total de sus capacidades, como pueden ser mujeres embarazadas, personas que en algún momento cargan niños o transportan bultos e incluso extranjeros que desconocen el idioma local. El 20 de noviembre de 1993 la Asamblea General de las Naciones Unidas aprobó las “Normas uniformes sobre la igualdad de oportunidades para las personas con discapacidad”, en las que indican que los Estados deben establecer programas de acción para el entorno f ísico, el acceso a la información y a la comunicación debe ser accesible para las personas con discapacidad de cualquier índole. Existen diferentes tipos de capacidad, entre los principales están los auditivos, el visual, el oral, de movimiento y mental. Barreras arquitectónicas: las barreras arquitectónicas interrumpen o impiden que se desarrollen las actividades cotidianas de las personas con discapacidades f ísicas en todo el mundo, presentando obstáculos para su acceso a sitios de trabajo, educativos, culturales y de esparcimiento, medios de transporte, entre otros. Es necesario considerar el diseño y la planeación en forma conjunta para que el entorno f ísico pueda ser apto para toda persona y que se puedan utilizar cómoda y adecuadamente. La falta de rampas para sillas de ruedas, falta de elevadores en construcciones públicas, puertas de ancho inapropiado, obras y trabajos sin delimitar, toldos bajos, son algunas barreras arquitectónicas que se encuentran comúnmente en las zonas urbanas, edificios y centros de trabajo que impiden o complican la accesibilidad a personas con diferentes discapacidades. Existen barreras que afectan el acceso y tránsito de personas con discapacidad, y no necesariamente son arquitectónicas, como la obstrucción de rampas en las aceras al estacionar automóviles, o el estacionar motos o automóviles sobre las banquetas, lo que dificulta la autonomía de estos grupos. Acceso a la información: los obstáculos para el acceso de información representan un problema para las personas con deficiencias visuales, hipoacústicas o con problemas de aprendizaje. 8.3 Áreas de la ergonomía 215 El acceso a la información implica que la señalización de servicios tales como el transporte público, servicios de información o emergencia sea suficiente y clara para cualquier persona. El desarrollo de tecnologías de telecomunicaciones e internet ha supuesto un cambio radical en la facilidad de difusión y disponibilidad de información, que pueden ser aprovechadas para permitir el acceso a personas con alguna discapacidad. Para alcanzar soluciones de diseño seguras y económicamente razonables se deben analizar desde las primeras fases de planeación y diseño, ya que al centrarse en las características, habilidades y limitaciones de los usuarios, se pueden identificar los problemas desde el inicio, evitando o reduciendo el tiempo y costo de trabajos de rediseño posterior. Mujeres embarazadas: el principal cambio en este grupo es el tamaño, que se comienza a notar a partir del cuarto mes de embarazo; se denotan incrementos en la circunferencia de 27% de la cintura, 6% de pecho y 4% de la cadera, así como un incremento de 17% en el peso. Los principales cambios que se notan son: • • • • • Distribución de la masa. Centro de gravedad del cuerpo. Movilidad, lo que repercute en disminución del área de trabajo con las manos. Humor, se nota menos vigor, energía y estado de alerta. Desempeño, disminución considerable en la eficiencia. Actividades que presentan mayor dificultad: • • • • • • • Levantar un objeto del suelo. Trabajar en un escritorio. Subir escaleras. Manejar un automóvil. Subirse y bajarse de un automóvil u otro tipo de transporte. Agarrar objetos de una repisa elevada. Meterse y salirse de la cama. Las principales consideraciones que se deben llevar a cabo en el diseño para estas necesidades son los cambios en las dimensiones. Deben ser trabajos que requieran el mínimo esfuerzo, existir asientos ajustables y áreas de descanso, así como más espacio del habitual. Población infantil: esta población es importante porque generalmente no se consideran sus características f ísicas para el diseño de mobiliario, ya sea en las escuelas, restaurantes e incluso el mismo hogar, y es una de las etapas más importantes para el adecuado desarrollo f ísico. Se debe tomar en cuenta seguridad especial, por ejemplo en los asientos de los coches; es decir, mobiliario especial que varíe conforme a la media antropométrica de las diferentes edades, como se ilustra en la figura 8.17. 216 Capítulo 8 Ergonomía 9 meses 6 meses 3 meses FIGURA 8.17 Para el diseño en esta área se toman en cuenta niños con y sin discapacidad f ísica, sin perder de vista que el tamaño de un niño cambia, esto es un factor importante en el diseño. Ancianos: los ancianos son una población que presenta capacidades reducidas, tanto en la fuerza como en resistencia y agudeza de los sentidos, por lo que las consideraciones en el diseño deben ser similares al del diseño para discapacitados (véase figura 8.18). 8.3.8 Ergonomía preventiva Es el área que trabaja en íntima relación con las disciplinas encargadas de la seguridad e higiene en los puestos de trabajo. Dentro de sus principales actividades se encuentra el estudio y análisis de las condiciones de seguridad, salud y confort laboral. Los especialistas en el área de ergonomía preventiva colaboran con otras especialidades de la ergonomía para el análisis de las tareas, como es FIGURA 8.18 8.3 Áreas de la ergonomía 217 el caso de la biomecánica y fisiología para la evaluación del esfuerzo y la fatiga muscular, determinación del tiempo de trabajo y descanso, por mencionar algunos. El objetivo de los ergonomistas en la industria es reducir la siniestralidad laboral a través del análisis y la evaluación de todos los factores que causan riesgo en la empresa. Buscan proveer la máxima productividad con el costo mínimo; sin embargo, cada uno de los especialistas considera diferentes factores para lograr esto, ya que el “costo” también debe considerar factores fisiológicos y psicológicos que afectan al operador. La prevención de riesgos laborales se puede resumir en tres conceptos: • • • Conocer los riesgos que existen en cada puesto de trabajo. Eliminar los riesgos que se pueden eliminar (los que no se pueden eliminar deben estar controlados). La seguridad y la salud de los trabajadores es la finalidad última de las obligaciones que establece la Ley de Prevención de Riesgos Laborales (LPRL). Las obligaciones más relevantes de los empresarios con sus trabajadores son: 1. Facilitar equipos de trabajo y medios de protección. 2. Fomentar la información, consulta y participación de los trabajadores y sus representantes. 3. Formar a los trabajadores. 4. Proporcionar protección especial a los trabajadores sensibles a determinados riesgos, a los adultos mayores, mujeres embarazadas y menores. 5. Vigilar la salud. Algunas de las situaciones que cuidan los ergonomistas del área preventiva cuando colaboran con ingenieros y médicos industriales, así como los especialistas del área de salud y seguridad laboral, son: Aplicación de datos antropométricos: la desproporción del tamaño y capacidad f ísica entre el operador y el sitio de trabajo es una de las causas más comunes para provocar el estrés f ísico en los operadores. Mejoría del diseño de equipo: la operación de maquinaria es más productiva y menos estresante cuando la máquina y el operador se dividen el trabajo, la máquina enfocándose en efectuar la actividad f ísica y el operador en pensar. Adecuada iluminación: el nivel de iluminación puede provocar una sensación de cansancio provocada por fatiga visual. La fatiga visual es el resultado de la tensión visual debido al acomodo rápido, campo visual extendido a cortas distancias focales, resplandor directo o reflejo, o lentes correctivos mal ajustados. Estos problemas se relacionan con el uso de terminales de 218 Capítulo 8 Ergonomía No pisar Precaución: le puede herir el pie FIGURA 8.19 video de contraste reducido o centelleo, y con el desarrollo de actividades relacionadas con la manipulación de piezas pequeñas o de detalle. Los síntomas oculares reducen la eficiencia de trabajo, las posturas inadecuadas y estáticas prolongadas de la cabeza y los hombros provocadas por una mala iluminación pueden agravar problemas posturales, lesiones f ísicas y microtraumatismos repetitivos. Adecuada señalización: cuando las señales no son adecuadamente entendidas y procesadas por el operador, cuando son confusas, desconocidas o se presenta ruido y distorsión entre ellas o por factores ambientales, existe una mayor probabilidad que el operador no actúe conforme a lo deseado o lo lleve a cabo en un proceso más lento; así mismo, incrementa el riesgo de accidentes y lesiones, ya que el operador no está prevenido de la actividad que realiza. Algunos ejemplos de señalizaciones se ilustran en la figura 8.19. Diseño y selección de equipo y de protección personal: la selección de los materiales y diseños de equipos de protección personal se realiza considerando los factores ambientales y externos a la persona de los cuales se le desea proteger. Algunos ejemplos de equipos de protección se muestran en la figura 8.20. Resulta dif ícil cuantificar en términos económicos los costos y beneficios que aporta la intervención y aplicación de la ergonomía en un ambiente industrial o de servicios, pero si se incorporan los conceptos de la ergonomía desde el diseño de los puestos de trabajo y las actividades, se puede disminuir considerablemente la posibilidad de que ocurran este tipo de problemas, con lo que se asegura una mayor eficiencia en la producción, se obtiene una actividad más eficaz del operador y, al mismo tiempo, se dan mejores condiciones de trabajo para el empleado. El campo de la aplicación de la ergonomía no se limita al área industrial, ya que también participa en otras actividades humanas, como el transporte, recreación y la práctica deportiva, e incluso en aspectos como el diseño adecuado de espacios y mobiliario para los servicios de la casa habitación y la oficina. 8.3 Áreas de la ergonomía 219 FIGURA 8.20 Evaluación de riesgos: la acción preventiva se planificará a partir de una evaluación inicial de riesgos que se realizará, con carácter general, teniendo en cuenta la naturaleza de la actividad. Después de la evaluación de riesgos se puede hacer la planificación, pero no antes. Planificación preventiva: el objetivo de la planificación de la actividad preventiva es establecer el conjunto de actuaciones a desarrollar en un periodo anual, de manera que el empresario pueda cumplir con los deberes y obligaciones exigibles en materia de seguridad y salud. Esta planificación consta de cuatro temas: 1. Declaración de la política de prevención. 2. Organización que se dispone para llevar a cabo las actividades preventivas. 3. Evaluación continua de riesgos. 4. Planificación de la actividad preventiva en sí. La planificación de la actividad preventiva debe contener siempre y como mínimo los siguientes aspectos: 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. Seguridad integrada. Organización de la actuación preventiva. Control de las fuentes de riesgo, incluidos los controles periódicos. Información, participación y consulta de los trabajadores. Formación. Asignación de trabajadores e información de los riesgos. Personal especialmente protegido. Vigilancia de la salud. Medidas de emergencia. Protección personal. 220 Capítulo 8 Ergonomía Dichas actuaciones se deben diseñar tomando en cuenta la modalidad organizativa elegida por la empresa para el desarrollo de la actividad preventiva, tipo de actividad, recursos y medios disponibles y las necesidades detectadas en la evaluación inicial de riesgos. Modalidades de la organización de la prevención en la empresa: existe un reglamento de servicios de prevención, que en sus artículos 10 al 22 establece las diferentes modalidades de organización de los recursos humanos necesarias para el desarrollo de las actividades preventivas. El artículo 10 menciona que la empresa está obligada a elegir uno de los modelos organizativos en función de dos parámetros: número de trabajadores de la empresa y grado de peligrosidad de las actividades. Debe tenerse en cuenta que se deben cubrir todas las disciplinas preventivas, que son las siguientes: 1. Vigilancia de salud (medicina en el trabajo). 2. Seguridad en el trabajo (conjunto de técnicas de prevención de accidentes). 3. Higiene industrial (conjunto de técnicas de prevención de enfermedades profesionales). 4. Ergonomía y psicosociología aplicada (conjunto de técnicas para la adaptación del trabajo a la persona). El artículo 11 (asunción por el propio empresario) señala que en este modelo organizativo es el propio empresario el responsable de llevar a cabo la actividad preventiva en la empresa. Se caracteriza por los siguientes puntos: 1. Que la empresa tenga menos de seis trabajadores (de uno a cinco). 2. El empresario debe poseer la información suficiente en materia preventiva, lo cual se puede lograr asistiendo a cursos específicos. 3. El empresario debe desarrollar su actividad habitualmente en el centro de trabajo de la empresa y dedicar el tiempo suficiente al desarrollo de la actividad preventiva. 4. La vigilancia de la salud de los trabajadores, así como aquellas otras actividades preventivas no asumidas personalmente por el empresario, deberán cubrirse mediante el recurso a alguna de las restantes modalidades de organización preventiva previstas en el Reglamento. 5. La empresa deberá auditar su sistema preventivo cada cinco años. Si los riesgos de la misma se encuentran bajo control, puede notificar a la administración laboral la no necesidad de realizar la auditoría. El artículo 12 (designación de trabajadores) de este modelo organizativo determina que el empresario debe designar uno o más trabajadores co- 8.3 Áreas de la ergonomía 221 mo responsables de llevar a cabo la actividad preventiva en la empresa. Esta modalidad se caracteriza por los siguientes puntos: 1. El número de estos trabajadores depende de la cantidad de empleados en la plantilla, la actividad de la empresa y su accidentalidad, y que el tiempo que deban dedicar a esta actividad deberá estar en relación con las funciones que tengan encomendadas. 2. El/los trabajador/es designado/s debe/n poseer la formación suficiente en materia preventiva. 3. Los trabajadores designados deberán dedicar el tiempo suficiente para el correcto desarrollo de la actividad preventiva. 4. Las actividades que no puedan desarrollar estos trabajadores designados, deberán ser llevadas a cabo a través de uno o varios servicios de prevención ajenos. 5. La empresa deberá auditar su sistema preventivo cada cinco años, contratando una empresa auditora acreditada por la administración laboral para tal efecto. El artículo 14 trata sobre la constitución de un servicio de prevención propio y las condiciones para constituir este modelo son: 1. Que se trate de una empresa que cuente con más de 500 trabajadores. 2. Cualquier empresa, por la peligrosidad de la actividad que lleva a cabo y por la frecuencia y gravedad de la accidentalidad, debe ser obligada a ello por decisión de la autoridad laboral, previo informe de la inspección de trabajo y de los órganos técnicos de la comunidad autónoma respectiva. Esta modalidad se caracteriza por: 1. El servicio de prevención propio debe cubrir, como mínimo, dos de estas especialidades: seguridad en el trabajo, higiene industrial, medicina del trabajo, y ergonomía y psicología. 2. Los expertos deberán dedicar su actividad en la empresa de forma exclusiva a la prevención. 3. En caso de ser necesario la empresa podrá designar más trabajadores, sin obligación de que dispongan de titulación de nivel superior. 4. El servicio de prevención propio deberá elaborar y mantener a disposición de la autoridad laboral la memoria y la programación anual de su actividad. 5. El servicio de prevención propio puede compartirse con empresas de una misma área geográfica, de un mismo sector productivo o de un mismo grupo empresarial, mediante la constitución, entre todas ellas, de un servicio de prevención mancomunado (Art. 21). 222 Capítulo 8 Ergonomía El artículo 16 habla de la concertación con un servicio de prevención ajeno. Se debe recurrir a este tipo de modelo organizativo cuando: 1. La designación de uno o varios trabajadores sea insuficiente para llevar a cabo la actividad preventiva en la empresa, y no se den las circunstancias para estar obligado a constituir un servicio de prevención propio. 2. Designado uno o varios trabajadores, o constituido un servicio de prevención propio, queden actividades preventivas no cubiertas y tengan que concertarse con un servicio de prevención ajeno. 8.4 Ergonomía de diseño centrado en el usuario Es un método iterativo donde es importante involucrar de forma activa al usuario, y el entendimiento claro de los requerimientos de la tarea y el usuario. Puede ser aplicado a cualquier sistema con el que el usuario tenga que interactuar, incluyendo el hardware, software y los manuales. De acuerdo con la norma ISO 13407, la incorporación del diseño centrado en el usuario se caracteriza por involucrar de manera activa a los usuarios, entendiendo claramente los requerimientos del usuario y la tarea, por una apropiada distribución de las funciones entre los usuarios y la tecnología, la iteración de las soluciones de diseño y un diseño multidisciplinario. Para poder entender y definir el contexto de uso, las tareas y la forma en que van a trabajar los usuarios en el futuro con el producto o sistema, es necesario involucrar al usuario. El objetivo de la tecnología es asistir al usuario a desarrollar las tareas seleccionadas, por lo que se deben identificar todas las tareas, la forma en que serán desarrolladas y cómo serán repartidas entre el usuario y la tecnología en el diseño. Una importante fuente de información en el diseño interactivo es la retroalimentación de los usuarios, ya que, por lo general, como no es posible definir exactamente las necesidades del usuario al inicio del proceso, se desconoce la parte de lo que el usuario quiere y lo que la tecnología es capaz de hacer. La situación actual del trabajo es el punto de inicio para el diseño, por lo que el nuevo sistema puede cambiar el contexto de uso, los requerimientos tecnológicos y del usuario, de esta manera el diseño puede ser refinado. Se requieren conjuntar una variedad de habilidades y conocimientos dependiendo de la naturaleza del sistema a desarrollar, esto lleva a que el equipo multidisciplinario incluya usuarios finales, miembros de la gerencia, expertos en la aplicación, diseñadores del sistema, expertos en mercadotecnia, diseñadores gráficos, especialistas en factores humanos y personal de capacitación. El diseñador sólo puede representar al usuario cuando el diseño sea desarrollado para su uso personal. Cada uno de los participantes debe tener su papel y responsabilidad bien definidos en el proyecto, ya que éste debe incluir manuales, capacita- 8.4 Ergonomía de diseño centrado en el usuario 223 ción, mantenimiento, soporte técnico, empaque y mercadotecnia, por lo que es necesario definir los requerimientos iniciales del usuario, ilustrar decisiones de diseño, hacer prototipos, evaluar durante la fase de análisis y diseño, analizar el resultado de la evaluación y realizar pruebas de campo. Se considera conveniente que una sola persona sea responsable de las actividades relacionadas con el diseño centrado en el usuario. De acuerdo con la norma ISO 13407, el proceso de diseño y desarrollo de un proyecto centrado en el usuario debe documentar y especificar los procedimientos utilizados, la información recolectada y el uso que se dio a los resultados obtenidos. Las nuevas ideas que surjan durante el desarrollo deben registrarse, incluso si no se planea aplicarlas, así como registrar si un requerimiento es descartado. Es importante considerar un lenguaje común entre los diseñadores y los usuarios, tanto para el producto como para las diferentes etapas de desarrollo, cuando se requiere involucrar a los usuarios. Los requerimientos del usuario no pueden utilizarse o aplicarse al principio del proyecto, por lo que deben ser considerados y aplicados durante el desarrollo. Cada requerimiento debe ser sustentado con información de su precedencia. Los aspectos que se deben definir cuando se planea un proyecto bajo la norma ISO 13407 son los siguientes. 1. Debe haber actividades para: • • • • Definir el contexto de uso. Definir los requerimientos del usuario y de la organización. Producir prototipos. Evaluar diseños. 2. Integrar las actividades con las demás actividades de diseño, como análisis, diseño y pruebas. 3. Identificar a las personas u organizaciones responsables de cada una de las actividades. 4. Definir procedimientos del análisis de los resultados de la evaluación y retroalimentación de los resultados de diseño. 5. Definir los plazos, incluyendo los que permitan la retroalimentación y posibles cambios en el diseño. La norma ISO 13407 también proporciona una guía de actividades en el proceso del diseño centrado en el usuario para sistemas interactivos, que son las siguientes: • • • • Entender y especificar el contexto de uso. Especificar los requerimientos de la organización y del usuario. Proceder a diseñar soluciones. Evaluar los diseños con respecto a dichos requerimientos. 224 Capítulo 8 Ergonomía Las pruebas de los expertos y pruebas en el laboratorio siempre deben preceder a las pruebas de campo. En las pruebas de laboratorio se detectan los principales problemas de uso, permitiendo que las de campo se enfoquen a la información como utilidad del sistema en uso real y continuo. EJERCICIOS PROPUESTOS 1. ¿Qué es la ergonomía? ¿Qué disciplinas involucra? ¿Cuáles son sus objetivos? 2. Describa el esquema de interacción humano-máquinas, ¿por qué es importante? 3. Del salón de clases, observe y comente qué condiciones físicas (ambiente térmico, nivel de ruido, nivel de iluminación, vibraciones) se encuentran en las condiciones adecuadas, cuáles cambiaría y por qué. 4. Haga un estudio ergonómico en su propio salón de clases siguiendo los pasos siguientes: a) Decida con sus compañeros de clase qué producto, máquina u objeto van a diseñar. b) Realice todas las mediciones necesarias de la población o muestra dentro del salón (todos sus compañeros de clase) dependiendo de su respuesta al inciso a, esto es: altura de la persona (de pie o sentada), ancho, alcance de brazos, alcance de piernas, etc. Registre todas estas medidas en una tabla. c) Con los datos que obtuvo en el inciso b, calcule la media y la desviación estándar de su muestra. d) Elija el percentil que quiere aplicar de acuerdo con lo aprendido en el capítulo y realice los cálculos necesarios para llegar a la toma de decisiones, por ejemplo: la silla debe tener estas medidas, el tablero de la máquina debe tener este alcance para que cierto porcentaje de la población la pueda utilizar fácilmente. e) Concluya acerca de los resultados obtenidos con su estudio. Referencias Budnick, P. Ph.D., CPE. (2004). Ergoweb. What is Ergonomics Really About? Chiner Dasí, M., Diego Más, J. A. y Alcalde Marzal, J. (2004). Laboratorio de ergonomía, Alfaomega, España. Flores, C. (2001). Ergonomía para el diseño, Designio, México. Instituto Nacional de Seguridad e Higiene en el Trabajo. (http://www.insht.es/). Kroemer-Elbert, K. E., Kroemer, K. H. E y Kroemer, H. (2000). Ergonomics: How to Design for Ease and Efficiency, 2a. Ed. Prentice Hall. Michael, R. (2004). Ergoweb. Ergonomics as a Global Initiative: Presence and Purpose. Mondelo, P. R., Gregori Torada, E. y Barrau Bombardo, P. (2000). Ergonomía 1, 3a. Ed., Alfaomega. NIOSH: The National Institute for Occupational Safety and Health. (http://www.niosh.com.my/). OSHA: Occupational Safety and Health Administration. (http://www.osha.gov). Sanders, M. S. y McCormick, E. J. (1993). Human Factors in Engineering and Design, 7a. Ed. McGraw-Hill, Science/Engineering/ Math. Sociedad de Ergonomistas de México A.C. (http: //www.semac.org.mx). Wickens, Ch. D., Gordon, S. E. y Liu, Y. (1998). An Introduction to Human Factors Engineering. Addison-Wesley Pub Co. CAPÍTULO 9 Diseño y desarrollo de productos: un enfoque CAD AUTOR: Dr. Sergio Romero Hernández 9.1 Introducción 9.2 Procesos de desarrollo y organizaciones 9.3 Planeación de productos 9.4 Identificación de necesidades y generación de especificaciones ingenieriles 9.5 Generación y selección de conceptos: el uso del CAD 9.6 Pruebas y prototipos mediante CAM 9.7 Estrategias modernas de diseño considerando PLM 9.1 Introducción El alto grado de competitividad que existe en la industria hoy en día exige que las empresas de todo el mundo cambien su perspectiva global de cómo hacer las cosas. No es suficiente con crear un producto o servicio innovador que capte la atención del mercado por un momento; las condiciones actuales de alta competencia y globalización obligan a las empresas a realizar operaciones cada vez más eficientes y menos costosas y a buscar una ventaja competitiva que destaque en el mercado. Para lograr tal objetivo, una estrategia muy eficaz que pueden adoptar todo tipo de organizaciones es optimizar sus etapas de diseño, creación del producto o servicio que ofrecerán, reduciendo así el tiempo que tarda en salir el producto al mercado y aumentando la rentabilidad. Específicamente para las empresas que manufacturan un producto, es imprescindible una etapa de diseño exitosa. Sin embargo, ¿qué es una etapa de diseño exitosa? Si se considera que el precio del producto está sujeto en gran medida a las condiciones del mercado y de la competencia, entonces se debe tornar hacia la reducción de costos en la fabricación del producto para obtener una mayor utilidad. La mejor medida del éxito de una etapa de diseño será la reducción en costos que se observe a lo largo del ciclo de vida del producto. Capítulo 9 Diseño y desarrollo de productos: un enfoque CAD Para lograr tal reducción de costos, es necesario tomar en cuenta otros temas que anticipan el éxito de una etapa de diseño. Se debe analizar, entre otras cosas, si se cumplen los objetivos estratégicos de la empresa, si el diseño se obtuvo en un tiempo igual o menor al acostumbrado en el mercado, si el costo de la etapa es bajo, si se están caracterizando de manera adecuada las necesidades del cliente y del mercado, si se toman en cuenta consideraciones de manufactura y logística del producto, si se analiza el impacto ambiental en el ciclo de vida del producto, etcétera. Es muy importante tomar en cuenta que todas estas mediciones de éxito o eficiencia solamente son válidas si se ha establecido previamente la prioridad que tiene cada tema para cada caso en específico; por ejemplo, para una empresa con una estrategia corporativa que ubica sus productos como lujosos y de alta calidad, sus temas de mayor interés serán la calidad y la estética, muchas veces a pesar de un incremento en costos. Por esto, el desarrollo del diseño de cada producto debe definirse de manera explícita, jerárquica e individual. Problemática: actualmente la naturaleza de los mercados de bienes requiere de la rápida y acertada adaptación de productos hacia exigencias de la cadena de suministro, los clientes y las instancias legislativas que en ciertos casos acotan proyectos. Por esto, es esencial un sistema eficiente en el diseño y desarrollo de productos que prevea todos estos problemas desde el inicio. Un diseño que no tome en cuenta tales consideraciones posiblemente tendrá varios problemas en etapas posteriores. En cualquier tipo de producto, los cambios que se deban efectuar serán más costosos conforme se avanza en el ciclo de vida del producto, como se muestra en la figura 9.1. En la figura se puede observar cómo el costo por modificar el diseño inicial de un producto varía en forma exponencial, dependiendo de la etapa en que ocurra la modificación, por lo tanto, claramente es más conveniente realizar los cambios necesarios durante la etapa de diseño, en la que el cosCosto por modificación en diferentes etapas de desarrollo 100 Costo normalizado por modificación al diseño original 226 $100 80 60 40 20 $1 $10 0 Diseño Pruebas FIGURA 9.1 [Ref. Romero-Hernández, S., 2002] Producción 9.2 Procesos de desarrollo y organizaciones 227 to es unitario. En cambio, si se detecta la necesidad de hacer una modificación en el producto cuando éste ya se encuentra en producción, el costo será 100 veces mayor. 9.2 Procesos de desarrollo y organizaciones Un proceso de desarrollo de productos bien definido dentro de una organización es esencial para asegurar la competitividad de las empresas en el cambiante y dinámico marco global de nuestros días. Algunas de las preguntas que se deben contestar al definir el proceso y la organización son las siguientes: • • • • ¿Existe algún proceso de desarrollo estándar que funcione para cualquier empresa? ¿Cuál es el papel de los expertos provenientes de diferentes áreas funcionales en el proceso de desarrollo? ¿Qué indicadores pueden usarse para dividir el proceso de desarrollo global en fases? ¿Se debe segmentar la organización de desarrollo en grupos correspondientes a proyectos o con base en sus funciones de desarrollo? Un proceso de desarrollo de producto puede definirse como la secuencia de pasos o actividades que debe seguir una empresa para concebir, diseñar y comercializar un producto. No debe perderse de vista que varios de estos pasos o actividades son intelectuales y organizacionales, no necesariamente f ísicas. Un proceso de desarrollo bien definido es de gran utilidad porque provee: a) Aseguramiento de la calidad, al establecer las fases que integrarán el proceso y cómo se considerarán satisfechas. b) Coordinación, ya que un buen proceso de desarrollo actúa como el plan maestro que define el papel de cada integrante, así como los canales de intercambio de comunicación entre ellos. c) Planeación, ya que establece las metas correspondientes a la culminación de cada fase. d) Administración eficaz, al convertirse en parámetro de comparación con el proceso de desarrollo real, permitiendo así la identificación de problemas. e) Mejoras, ya que la cuidadosa y precisa documentación del proceso de desarrollo de una organización permite identificar áreas de oportunidad. El proceso de desarrollo debe ser específico del producto que se esté desarrollando, pero todo proceso debe constituirse genéricamente de seis fases consecutivas: 228 Capítulo 9 1. 2. 3. 4. 5. 6. Diseño y desarrollo de productos: un enfoque CAD Planeación Desarrollo del concepto Diseño del sistema-nivel Diseño de detalle Pruebas y refinamiento Escalamiento a producción Planeación: a esta fase también se le suele denominar fase cero, ya que precede la aprobación del proyecto y el inicio del proceso de desarrollo; inicia en la estrategia corporativa e incluye una evaluación de los desarrollos tecnológicos y los objetivos del mercado. El resultado de esta fase es la declaración de la misión del proyecto, la cual identifica el mercado objetivo, las metas de negocio, las suposiciones y restricciones. Desarrollo del concepto: en esta fase se identifican las necesidades del mercado, se generan y evalúan diferentes alternativas conceptuales del producto y se seleccionan algunos conceptos para seguirse desarrollando. En esta fase se considera como alternativa conceptual una descripción de la forma, función y características de un producto, que usualmente viene acompañado de una serie de especificaciones, un análisis de productos de la competencia y una justificación económica del proyecto. Diseño del sistema-nivel: esta fase incluye la definición de la arquitectura del producto y su descomposición en subsistemas y componentes. El esquema final de ensamble para el sistema de producción usualmente se define en esta etapa. Esta fase provee una descripción geométrica del producto, especificaciones funcionales de cada uno de los subsistemas del mismo y un diagrama de flujo preliminar para el proceso de ensamble final. Diseño de detalle: incluye una completa especificación de la geometría, materiales y tolerancias de todas las partes únicas del producto y la identificación de las partes comerciales que pueden ser adquiridas de proveedores. Se planifica el proceso y se diseñan los herramentales necesarios para cada parte que se fabricará. Pruebas y refinamiento: involucra la construcción y evaluación de múltiples versiones de preproducción del producto. Los primeros prototipos (alfa) se hacen con partes que pueden tener la misma geometría y propiedades del material que se pretende para la versión de producción, pero no necesariamente fabricadas con el proceso destinado a producción. Los prototipos beta se hacen con partes fabricadas mediante los procesos de manufactura planeados para producción, pero el proceso de ensamble no es necesariamente el planeado para producción. Los prototipos alfa suministran información sobre si el producto operará como fue diseñado y si cumple las necesidades del cliente, mientras que los beta evalúan la confiabilidad y rendimiento del producto. Escalamiento a producción: en esta etapa el producto se fabrica utilizando el sistema de producción que se planeó. El objetivo de esta fase es entrenar a los operadores, así como identificar y resolver los últimos deta- 9.2 Procesos de desarrollo y organizaciones 229 lles de los procesos de producción. Los productos generados durante esta etapa generalmente se distribuyen entre clientes preferenciales que ayudarán a detectar posibles debilidades en el artículo. La transición entre esta fase hacia la producción formal ocurre en forma gradual, y en algún momento de la misma el producto se lanza y se vuelve disponible para distribución masiva. Desarrollo del concepto, el proceso frontal: el desarrollo del concepto es la fase que demanda la mayor coordinación entre funciones de todo el proceso, por lo que existe en la bibliograf ía una gran cantidad de métodos de desarrollo multidisciplinarios e integradores relativos a esta fase. El proceso frontal es una expansión de la fase de desarrollo del concepto, y generalmente tiene varias actividades interrelacionadas. Por lo general, el proceso no se da en forma secuencial; las actividades en el proceso frontal pueden traslaparse por necesidad, ya que en cualquier momento puede surgir nueva información que involucrará repetir actividades en forma iterativa. Las actividades involucradas en el desarrollo del concepto son las siguientes: • • • • • • • • • • Identificación de las necesidades del cliente. Establecimiento de especificaciones objetivo. Generación del concepto. Selección del concepto. Pruebas del concepto. Determinación de especificaciones finales. Planeación del proyecto. Análisis económico. Estudio del mercado. Modelado y generación de prototipos. El proceso de desarrollo descrito es genérico y por lo general se encuentra en una situación en la cual es guiado por el mercado, de forma tal que, al detectar una compañía una oportunidad en el mercado, usa la tecnología disponible para satisfacer las necesidades del mercado; esto es, el mercado guía las decisiones del desarrollo. Existen variantes que corresponden a productos guiados por la tecnología, productos en plataforma, productos de proceso intensivo y productos personalizados. En el primer caso la compañía posee una tecnología y busca un mercado apropiado donde aplicarla, un buen ejemplo de esto es la fibra GoreTex®, la cual se ha usado en aplicaciones tan diversas como prendas deportivas, botas, aislamiento de cables eléctricos de alto rendimiento, venas artificiales para cirugías vasculares, etcétera. Un producto de plataforma se construye con base en un subsistema tecnológico preexistente, esto es, una plataforma tecnológica. Los productos hechos en plataformas tecnológicas son más fáciles de desarrollar que si la tecnología se desarrollara desde cero, además, en esos casos hay una distribución de costos entre diferentes productos que comparten la misma 230 Capítulo 9 Diseño y desarrollo de productos: un enfoque CAD plataforma. Un buen ejemplo de esto es la línea de reproductores portátiles de discos compactos Discman de Sony. Buenos ejemplos de productos de proceso intensivo son los alimenticios, químicos, papel y los semiconductores. En estos casos, el proceso de producción delimita las propiedades del producto, de forma tal que éste no puede separarse del diseño del proceso de producción. Los productos de este tipo se producen en grandes cantidades. En algunas ocasiones, un nuevo producto y un nuevo proceso se desarrollan en forma simultánea; por ejemplo, generar una nueva forma de cereal requerirá actividades de desarrollo de producto y de proceso. Los productos personalizados constituyen ligeras variaciones de configuraciones estándar, generalmente se desarrollan en respuesta a la orden específica de un cliente. Entre estos productos se pueden mencionar interruptores, motores, baterías y contenedores. El desarrollo de productos personalizados consiste básicamente en ajustar valores de variables de diseño, como dimensiones f ísicas y materiales. Organizaciones para el desarrollo de productos: como parte de un proceso de desarrollo eficaz, las compañías deben organizar a su personal encargado de desarrollo en forma eficiente. Una organización para el desarrollo de productos se puede definir como el esquema en que individuos desarrolladores y diseñadores se alían en grupos que forman enlaces formales e informales entre sí. Los enlaces organizacionales más fuertes son aquellos que involucran evaluaciones de desempeño, presupuesto y asignaciones de recursos. Independientemente de los enlaces, individuos en particular pueden ser clasificados en dos formas distintas: de acuerdo con su función y con el proyecto en que trabajan. • • Una función, organizativamente hablando, es un área de responsabilidad que usualmente involucra personal con educación especializada, entrenamiento o experiencia. Ejemplos comunes de funciones en las organizaciones son: mercadotecnia, diseño, manufactura y finanzas; aunque pueden existir divisiones más especializadas, como investigación de mercados, estrategia mercadológica, diseño industrial, ergonomía, administración de operaciones o análisis de esfuerzos. Independientemente de sus funciones, los individuos aplican su conocimiento a series de actividades en el proceso de desarrollo para un producto en particular, es decir, a un proyecto como la identificación de necesidades del cliente, la generación de conceptos del producto, etcétera. No debe perderse de vista que individuos con diferentes funciones van a trabajar en el mismo proyecto o que un individuo con una sola función puede estar contribuyendo a más de un proyecto. Debido a esto surgen 9.2 Procesos de desarrollo y organizaciones 231 dos estructuras organizacionales clásicas a partir de la forma en que se realizan los enlaces organizacionales, ya sea por proyecto o por funciones. En organizaciones funcionales, los enlaces se dan primordialmente entre aquellos individuos que realizan funciones similares. En organizaciones de proyecto, los enlaces se presentan entre aquellos que laboran en el mismo proyecto. En una organización funcional, individuos con entrenamiento y experiencia similares reportan a un solo gerente que los evalúa y establece sus remuneraciones. El grupo tendrá su propio presupuesto y ubicación común dentro de las instalaciones, y participará en varios proyectos diferentes, pero sin enlaces organizacionales fuertes con otros miembros de diferentes grupos involucrados en el mismo proyecto. Esto da lugar a grupos específicos dentro de la organización, como pueden ser los correspondientes a mercadotecnia, diseño o manufactura. En una organización basada en proyectos se conjuntan individuos con diferentes funciones, cada grupo se enfoca en el desarrollo de un producto o línea de manera específica. Estos grupos reportan a un experimentado gerente de proyecto, que puede provenir de cualquiera de las áreas. Las nuevas empresas son el mejor ejemplo de organizaciones basadas en proyectos. Estas dos estructuras organizacionales se muestran esquemáticamente en la figura 9.2. Es claro que los esquemas anteriores no pueden cubrir las necesidades de todas las empresas, por lo que se han generado esquemas híbridos, donde los enlaces entre individuos se realizan a través de las funciones y los proyectos. Usualmente, un individuo tiene dos supervisores: un gerente de proyecto y un gerente de departamento. En la práctica real, una de las dos Gerente general Gerentes funcionales Gerente general Gerentes de proyecto Organización funcional FIGURA 9.2 [Ref. Ulrich, 2000] Organización de proyectos 232 Capítulo 9 Diseño y desarrollo de productos: un enfoque CAD áreas desarrolla enlaces más fuertes por diversas razones; por ejemplo, los diferentes gerentes no pueden tener autoridad independiente del presupuesto al mismo tiempo, y la dificultad de agrupar f ísicamente a los trabajadores en la misma localización. Variantes de estos arreglos híbridos, también llamadas organizaciones matriciales, han sido desarrolladas por investigadores; dos de éstas son: organización preponderantemente de proyecto y organización banalmente de proyecto (heavyweight and lightweight project organizations). En la primera, el gerente de proyecto tiene total control del presupuesto, se encuentra fuertemente involucrado en las evaluaciones del rendimiento de los trabajadores y toma la mayoría de las decisiones concernientes a la asignación de recursos. Aunque cada participante del proyecto también pertenece a una organización funcional, los gerentes de función tienen reducida autoridad y control. Este esquema también suele llamarse “equipo integrado de producto” o “equipo de desarrollo de producto”, nombres que enfatizan la multidisciplinariedad de estos equipos. En la organización banalmente de proyecto, los enlaces funcionales son los más fuertes, por lo que el gerente de proyecto actúa más como administrador y coordinador, pero sin autoridad y control real en la organización de proyecto. Los gerentes de departamento (funcionales) son responsables del presupuesto, contrataciones y despidos, así como de evaluaciones de desempeño del personal. Estos esquemas matriciales se encuentran ilustrados en la figura 9.3 Gerentes funcionales Gerente general Gerentes funcionales Gerente general Gerentes proyectos banales Gerentes proyectos preponderantes Matriz organización banalmente de proyecto Organización del desarrollo de varios productos: se muestran 4 funciones y 4 proyectos FIGURA 9.3 [Ref. Ulrich, 2000] Matriz organización preponderante de proyecto 9.3 Planeación de productos 233 La elección de la estructura organizacional más adecuada depende de la jerarquización de los factores de desempeño organizacional. Las organizaciones funcionales tienden a fomentar la especialización y a profundizar la experiencia en las diversas áreas funcionales. Las organizaciones de proyecto permiten una rápida y eficaz coordinación entre diversas funciones. Las organizaciones matriciales, al ser híbridas, tienen el potencial de tomar cualquiera de estas dos perspectivas. Sin embargo, hay una serie de preguntas que deben formularse al elegir una estructura organizacional: • • • • ¿Qué tan importante es la integración multifuncional? ¿Qué tan importante es el conocimiento funcional de punta para el éxito del negocio? ¿Pueden ser empleados los individuos de cada función por toda la duración del proyecto? ¿Qué tan importante es la velocidad del desarrollo del producto? Así como éstas, hay más consideraciones a tomar en cuenta, pero es importante mantener siempre en mente que el punto pivote entre organizaciones funcionales y de proyecto se encuentra entre la extensa experiencia funcional y una eficiente coordinación. El lector puede ampliar sus conocimientos sobre el tema en la bibliograf ía proporcionada. 9.3 Planeación de productos El proceso de planeación de productos se realiza antes que el proyecto de desarrollo de productos sea formalmente aprobado, se le inviertan recursos significativos y se forme un equipo de desarrollo. La planeación de productos es la actividad que considera la gama de proyectos que una organización puede emprender, y determina cuáles de éstos serán desarrollados y en qué periodo. Esta actividad asegura que los proyectos estén acordes con la estrategia de negocios de la compañía y da respuesta a los siguientes cuestionamientos: • • • • ¿Qué proyectos de desarrollo de producto se llevarán a cabo? ¿Qué proporción de los proyectos deben ser productos fundamentalmente nuevos, cuántos de plataforma y cuántos derivativos? ¿Cómo se relacionan entre sí los nuevos proyectos? ¿Cuál será la secuencia y cronología que seguirán los proyectos? Cada uno de los proyectos será realizado por un equipo de desarrollo de productos, el cual necesita conocer la misión del producto, antes de empezar con su desarrollo. Esta misión da respuesta a preguntas cruciales que deben incluirse en la declaración de la misma para el equipo de desarrollo: • ¿Qué segmentos del mercado deben tomarse en cuenta al diseñar el producto y desarrollar sus características? 234 Capítulo 9 Diseño y desarrollo de productos: un enfoque CAD Identificar oportunidades Evaluar y jerarquizar proyectos Portafolio de proyectos Asignar recursos y calendarizar Plan estratégico del producto Completar la planeación del pre-proyecto Declaración de la misión del producto Proceso de desarrollo del producto FIGURA 9.4 [Modificado a partir de Ulrich, 2000] • • • • ¿Qué tecnologías, nuevas o existentes, deben incorporarse en el nuevo producto? ¿Cuáles son los objetivos y limitantes en manufactura y servicio del producto? ¿Cuáles son las metas financieras del producto? ¿Cuál es el presupuesto y tiempo destinado al proyecto? La planeación del producto puede realizarse con un plan basado en cinco pasos, que inicie con una identificación de áreas de oportunidad y resulte en la declaración de la misión del producto, como se muestra en la figura 9.4. Inicialmente se jerarquizan múltiples oportunidades y se selecciona un conjunto de proyectos potenciales, se asignan recursos a esos proyectos y se calendarizan. Estas actividades de planeación deben enfocarse, en general, en un portafolio de oportunidades y proyectos potenciales, para constituir de esta manera una gerencia de producto. Es importante tomar en cuenta que el plan del producto debe reevaluarse frecuentemente y modificarse cuando surja nueva información proveniente de equipos de desarrollo, investigadores, producción o mercadotecnia. La habilidad de ajustar el plan del producto durante el proceso es vital para asegurar la buena conclusión de la empresa. Los pasos sugeridos para desarrollar el plan del producto y su misión son los siguientes: 1. 2. 3. 4. 5. Identificar oportunidades. Evaluar y jerarquizar los proyectos. Designar recursos y calendarizar. Completar la planeación del preproyecto. Reflexionar en los resultados y el proceso. Las ideas para identificar las oportunidades pueden provenir de diversas fuentes, como personal de mercadotecnia y ventas, organizaciones dedicadas a la investigación y desarrollo de tecnología, actuales equipos de desarrollo de productos, organizaciones de manufactura y operaciones, clientes 9.3 Planeación de productos 235 actuales o potenciales, agentes externos (como proveedores, inventores o socios de negocios). La compañía debe desempeñar un papel proactivo en la generación de oportunidades, lo cual puede lograrse por medio de actividades, como documentar las quejas y sugerencias que los clientes tienen en relación con los productos existentes; entrevistar usuarios expertos para catalogar las posibles modificaciones y adaptaciones que han hecho de los productos; considerar implicaciones demográficas, sociales y tecnológicas de las categorías de producto existentes, buscando segmentos del mercado que no están satisfechos, y estudiar cuidadosamente los productos de la competencia en forma continua. El paso anterior da lugar a una colección de oportunidades que en un año puede incluso llegar a miles. Algunas de estas oportunidades no estarán en contexto con las otras actividades de la compañía o simplemente no será viable tratar de desarrollar todas las ideas al mismo tiempo. La selección de las oportunidades a ser desarrolladas se vuelve entonces el segundo paso a seguir en este proceso. Existen cuatro perspectivas básicas útiles para desarrollar esta actividad, y son: la estrategia corporativa, segmentación de mercados, trayectorias tecnológicas y las plataformas de productos. La estrategia corporativa de una organización define la forma en que se encaran mercados y productos con respecto a aquellos de la competencia. Muchos directores y ejecutivos de alto nivel dedican gran parte de su tiempo a discutir sus competencias estratégicas y definir las estrategias con las que piensan competir en el mercado. Hay varias estrategias posibles, entre las cuales se pueden mencionar las siguientes: • • • • Liderazgo tecnológico. Se enfatiza la investigación y el desarrollo de nuevas tecnologías y su empleo. Liderazgo en costos. Se compite en eficiencia productiva a través de economías de escala, mejores métodos de manufactura, mano de obra barata o mejor gestión de los sistemas de producción. Enfocado al cliente. Se trabaja en colaboración con los clientes para estimar los cambios en sus necesidades o preferencias. Imitación. Se siguen las tendencias del mercado y se imitan los productos exitosos de la competencia. La elección de la estrategia competitiva de la empresa definirá las oportunidades que formarán parte del portafolio de proyectos; por ejemplo, una empresa que persigue una estrategia de bajos costos tendrá un portafolio con opciones centradas en proyectos que mejoren los sistemas de producción. Por otro lado, ya que el tiempo y los recursos disponibles en la empresa deben ser asignados a los proyectos más promisorios, invariablemente se presentará una situación en que varios proyectos competirán por unos pocos recursos. Diversas organizaciones emprenden demasiados proyectos, sin tomar en cuenta la limitada disponibilidad de los recursos de desarrollo; 236 Capítulo 9 Diseño y desarrollo de productos: un enfoque CAD esto resulta en que ingenieros y gerentes capacitados se ven asignados a más y más proyectos, lo que da lugar a una disminución en la productividad, retrasos en tiempo al mercado y disminución de las ganancias. Estimar los recursos requeridos por cada uno de los proyectos a nivel mensual, trimestral y anual, hace ver a la organización lo limitado de sus recursos. El primer factor a considerar es la necesidad de recursos humanos, usualmente representados en horas-hombre; otros recursos críticos que requieren una cuidadosa planeación son equipos de prototipos, líneas de producción piloto, instalaciones para pruebas, etc. Una estimación de los recursos requeridos se puede hacer a partir de un cálculo de la utilización del equipo (demanda/capacidad) y cuidar que ésta nunca exceda el 100%, que es cuando no existen suficientes recursos para ejecutar todos los proyectos en el plan. De hecho, para prevenir posibles contingencias se debe planear una utilización menor al 100%. Los proyectos menos relevantes tendrán que ser eliminados del plan o desplazados en el cronograma. Ya que el proyecto ha sido aprobado, se debe realizar una planeación de actividades del preproyecto; esto es, debe ejecutarlo un pequeño equipo multidisciplinario que represente varias áreas de competencia, como mercadotecnia, manufactura, servicio, etc. En este punto se puede producir una declaración de la visión del producto que, al tomar en cuenta factores como el mercado objetivo, las metas deseadas y demás, se transformen en la declaración de la misión del producto. Por ejemplo, para el caso del diseño de un ventilador de mesa como nuevo producto de la gama de una empresa de electrodomésticos, la declaración de la misión del producto quedaría de la forma en que se muestra en la tabla 9.1. Es importante no perder de vista que es en este punto donde la administración define metas corporativas (en términos financieros y de mercadotecnia) y estrategia general para el producto [Ulrich, 2000]. Dado que la misión del producto es el borrador para el equipo de desarrollo, debe comprobarse que se ajuste a la realidad de la empresa y el mercado antes de invertir mayor cantidad de recursos en el proyecto. 9.4 Identificación de necesidades y generación de especificaciones ingenieriles Todas las características que debe reunir un producto que se manufactura son establecidas por las necesidades de cada “elemento” que interactúa con él: proveedores, departamento de manufactura, departamento de ensamble, equipo de distribución, consumidor y, finalmente, medio ambiente. Cuanto mejor se entiendan y aborden tales necesidades, el flujo del producto a lo largo de su vida tendrá menos complicaciones, lo que se reflejará en menores costos operativos y de disposición final. Hay dos formas de abordar las especificaciones que competen a un producto: como parámetros que acotan al proyecto y como necesidades del 9.4 Identificación de necesidades y generación de especificaciones ingenieriles 237 TABLA 9.1 Misión del producto Misión del producto: Ventilador de mesa Descripción del producto Ventilador de mesa eléctrico para uso en el país (110 V), ligero, disponible en tiendas de electrodomésticos. Metas corporativas — Captar 15% del mercado en un lapso de cinco años. — Proceso de desarrollo de 8 meses. Mercado primario Hogares. Mercado secundario Oficinas y bodegas. Suposiciones — Eléctrico (110 V), para corriente alterna. — Bajo consumo energético. — Ligero. — Amigable con el medio ambiente. Grupos involucrados — Accionistas. — Departamento de logística. — Departamento ambiental. — Departamento de producción. — Equipo de diseño. cliente. Las acotaciones de un proyecto se identifican desde un principio, ya que son de carácter técnico y específico. Una regulación gubernamental con respecto al máximo de emisiones permitidas en un proceso es un parámetro cuya naturaleza establece lineamientos ineludibles. Sin embargo, las necesidades de clientes son áreas no estrictas en las que se busca optimizar para obtener mayor satisfacción o menores costos operativos. Antes de analizar cuáles son las necesidades del cliente, es importante saber qué se entiende por cliente. Tradicionalmente, se tiende a pensar que el cliente es el consumidor final del producto. Esto es correcto, sin embargo, no es el único cliente que se puede tener. Las empresas no sólo deben considerar como clientes a quienes compran directamente el producto ni a los consumidores finales, sino también a todas las instancias intermedias en la cadena de suministro entre el diseñador y el último consumidor. Desde esta perspectiva, las “necesidades del cliente” adquieren totalmente otro propósito, ya que se están incluyendo muchas más consideraciones en la creación del diseño. La empresa misma es cliente de sus proveedores. Para el caso de un ventilador de mesa se tratan los siguientes clientes, por considerar que son los más importantes: el consumidor final y el fabricante. Es necesario traducir las necesidades de los clientes a especificaciones técnicas para obtener un lenguaje común entre éstas y los parámetros de acotamiento. Sólo así se podrá mejorar en todas direcciones. Necesidades del consumidor final: el proceso de convertir las necesidades de los consumidores finales en especificaciones técnicas del producto es de vital importancia para estar en condiciones de dar un seguimiento 238 Capítulo 9 Diseño y desarrollo de productos: un enfoque CAD adecuado y resolverlas durante las etapas subsecuentes del proceso de desarrollo, que es el siguiente: 1. Obtener información de los clientes. 2. Interpretar la información en términos de necesidades de los clientes. 3. Organizar las necesidades por jerarquías. 4. Establecer la importancia relativa de las necesidades. 5. Reflexionar sobre los resultados y el proceso. Para el caso hipotético de un ventilador de mesa se pueden desarrollar los cinco pasos anteriores, comenzando con la realización de encuestas a diversos clientes potenciales. Las entrevistas se dividen en dos etapas: la primera tiene la finalidad de obtener del cliente sus opiniones abiertas sobre sus impresiones y necesidades de un ventilador de mesa; la segunda contiene preguntas específicas. La encuesta podría tomar la siguiente forma: 1a. parte: • • • ¿Qué busca en un ventilador de mesa? ¿Cuáles son las características más importantes para usted? ¿En general, qué es lo que más suele molestarle de ventiladores que ha tenido? 2a. parte: se clasifican los siguientes atributos por importancia: 1. Costo 2. Estética 3. Funcionalidad El manejo de los resultados de la encuesta se haría de la siguiente forma: • • 1a. parte: de la información general recolectada, se identifican las características que más mencionan los encuestados; un ejemplo puede ser la necesidad de que el ventilador no haga ruido durante su funcionamiento y tenga al menos dos velocidades. 2a. parte: para las preguntas de la segunda sección, las respuestas de los participantes se clasifican en una distribución y jerarquización de los atributos más importantes del producto. Es recomendable graficar los resultados obtenidos, con el objeto de identificar las características que más desea el cliente. Esto se muestra en forma de ejemplo en la figura 9.5. Necesidades del fabricante: en esta etapa se analizan las preferencias y necesidades de la compañía; por ejemplo, de tres departamentos (pueden 239 9.4 Identificación de necesidades y generación de especificaciones ingenieriles Resultados de encuesta 100% 90% 80% 70% 60% 50% Estética 40% Costo 30% Funcionalidad 20% 10% 0% 1o. 2o. 3o. Prioridad FIGURA 9.5 [Modificado a partir de Andere, 2004] ser más): manufactura, logística y medio ambiente. Si la empresa tiene ya algunos años en el mercado, eso significa que también tiene una infraestructura establecida. Para cada sección se entrevista a expertos en cada tema, quienes fungen como directores de cada área para la empresa. Cada director proporciona entonces una lista preliminar de prioridades que el diseñador debe tomar en cuenta desde el inicio para el primer diseño del producto. Establecimiento de especificaciones (QFD): las especificaciones ingenieriles deben ayudar a distinguir las diferencias existentes entre las alternativas durante la evaluación, deben ser mensurables, cada requerimiento debe identificar una sola alternativa y ser universal. La identificación de las necesidades y la generación de las especificaciones ingenieriles se realizarán con el método “quality function deployment” (QFD). El método QFD ayuda a generar la información necesaria para desarrollar las especificaciones ingenieriles en el proceso de diseño de un producto, comparándolo con otros ya existentes en el mercado. Los pasos del método llevan a la construcción de una casa de calidad (house of quality) donde se desarrolla cada paso del método, como se ilustra en la figura 9.6. Para realizar la casa de calidad se deben seguir los siguientes pasos: 1. 2. 3. 4. Identificar quiénes son los consumidores. Encontrar qué es lo que esperan que el producto haga. Determinar qué aspectos son importantes y para quién lo son. Identificar la forma en que el problema puede ser resuelto; cómo perciben los clientes las habilidades para encontrar los requerimientos que necesitan en el producto. 240 Capítulo 9 Diseño y desarrollo de productos: un enfoque CAD Paso 8 Paso 1 Paso 3 Paso 2 Paso 5 Paso 4 Paso 6 Paso 4 Paso 7 FIGURA 9.6 5. Definir cómo se van a medir las habilidades de cada producto para satisfacer los requerimientos; por ejemplo: peso, dimensiones, rendimiento, etcétera. 6. Analizar la correlación entre qué es lo que quieren que el producto haga y cómo se va a lograr que lo haga. Ésta es una relación entre los pasos 2 y 5, la cual se mide de acuerdo con el nivel de interrelación (determinada por el diseñador) que tengan entre sí, mediante lo siguiente: fuerte relación = •; mediana relación = 䊊; débil relación = Δ. 7. En la base de la casa se desarrolla el análisis de la información objetivo. Se establecen las medidas deseadas y las no deseadas para el producto, y se contrastan con las medidas que presentan los artículos con los que se está comparando. 8. En el techo de la casa se desarrolla la interrelación de las especificaciones ingenieriles. Estas especificaciones pueden tener cierta interdependencia, es por ello que se miden de la siguiente manera: # negativo, 1; fuertemente negativo, 3; • fuertemente positivo, 9; 䊊 positivo, 3. Los pasos anteriores ayudan a obtener las necesidades del producto, cada paso corresponde a una estructura de la casa de calidad. Un ejemplo de cómo luce una casa de calidad se muestra en la figura 9.7. En la casa de calidad se pueden encontrar las necesidades de los clientes (que se interpretan como atributos que debe tener el producto), un esquema general de mediciones para calificar los atributos del producto, las relaciones que las mediciones tienen con las necesidades de los clientes, la 241 Unidades #l % Selección del motor % material reciclable Dirección de mejoramiento Tipo de empaque # de piezas Velocidad de funcionamiento % manufactura actual Diámetro base Largo aspas Comp.1 Forma de empaque (sobre 100) Ventilador de mesa Peso Departamento de Producción Consumidor final 9.4 Identificación de necesidades y generación de especificaciones ingenieriles Comp.2 Comp.3 1 2 3 4 kg cm cm % rpm # - w 22 1 Silencioso 13 1 Consumidor final No vibre 14 1 Varias velocidades 14 1 Oscile 11 1 Se incline 4 12 Buen empaque 6 10 Logística Ligero 1 13 Apilable 2 13 Manufactura Tiempo de ensamble - - - - 1 12 Fabricado 'in-house' - - - - 1 12 Poca energía (fabricación) - - - - 1 11 Medio ambiente - - - - Poco material 7 7 Reciclable 3 5 Reutilizable Competencia 1 5.42 40 49 ND - 18 Rec. 6 ND - Competencia 2 4.9 40 52 ND - 23 Rec. 6 ND - Competencia 3 5.1 40 43 ND - 20 Rec. 6 ND - Meta (deseable) 4.8 35 45 100 - 17 Rec. 6 75 - Meta (indeseable) 5.5 45 53 50 24 Red. 7 10 - FIGURA 9.7 [Modificado a partir de Andere, 2004] - 242 Capítulo 9 Diseño y desarrollo de productos: un enfoque CAD importancia de cada necesidad para los clientes más significativos, el estado actual de la competencia respecto de las necesidades, las metas para cada concepto (en unidades previamente establecidas), etcétera. Sin embargo, es importante recordar que el objetivo último de este procedimiento es diseñar un producto y su proceso, de manera que se minimicen costos y se maximice la satisfacción del cliente, en la búsqueda de mayor rentabilidad del proyecto. Es entonces cuando se entiende que los atributos se miden en una primera fase, para después determinar costos operativos y, finalmente, evaluar el diseño del producto y su proceso. 9.5 Generación y selección de conceptos: el uso del CAD Teniendo en mente la lista de principales temas de análisis proveniente de la casa de calidad, un equipo de diseño tiene bien establecido qué características son prioritarias en el producto que desarrollará. Es muy importante resaltar que se debe disponer de toda la información necesaria para que los diseñadores puedan tomar las decisiones correctas con respecto a los detalles finales del producto. El tiempo disponible y la experiencia del equipo de trabajo son factores que invariablemente determinan el éxito de cualquier diseño. Existen acotaciones técnicas específicas (fijas), además de restricciones iniciales referentes a peso, tamaño y condiciones del mercado. El éxito provisional del primer diseño se basará en la experiencia o formación profesional del equipo de diseño. Es sumamente importante recordar que muchas veces el nuevo producto se está integrando a una compañía ya establecida; por tanto, se puede suponer que tal empresa ya cuenta con cadenas de suministro bien establecidas para cada uno de sus productos, así como infraestructura en general. El nuevo concepto de producto procura integrarse de la mejor manera posible a la infraestructura logística existente, de modo que se busca formar la mejor cadena de suministro posible con los elementos disponibles. A lo largo de la historia el diseño, en forma de dibujo, se utilizó como paso previo a la elaboración de obras (escultura, pintura, etc.), y con el auge del desarrollo industrial adquirió una presencia continua en los diversos aspectos de la vida del hombre. En la modernidad, el término diseño hace referencia a la planeación y proyección de formas y objetos que suponen una modificación del entorno humano. El diseño se relaciona directamente con las formas, los materiales y las funciones que un objeto debe tener para lograr un producto único y original que responda a algún planteamiento definido. Este objeto debe adecuarse a las necesidades sociales que lo someten a cambios continuos debido a la competencia y las innovaciones técnicas. 243 9.5 Generación y selección de conceptos: el uso del CAD Para realizar el diseño de un producto cualquiera es necesario conocer las especificaciones cinemáticas, mecánicas y el tipo de material que responde mejor a las necesidades del producto, tanto en costo como en resistencia al medio ambiente. El equipo de diseño puede hacer uso de herramientas elegidas por la empresa para desarrollar y modificar toda su línea de productos, las cuales pueden ser desde un simple programa de dibujo asistido por computadora, hasta poderosos programas de modelado de sólidos en forma tridimensional para realizar el diseño conceptual. El diseño conceptual es la exploración de las diferentes alternativas de diseño para cada uno de los componentes del sistema; para ello, es necesario reconocer las ventajas y desventajas de éstas para crear una metodología clara que permita elegir las más convenientes. Este proceso se caracteriza por la selección de posibles diseños con base en ciertas condiciones, como facilidad de manufactura, producción y ensamble, disponibilidad de componentes comerciales, proveedores calificados y cumplimiento de normas internas o externas. El proceso de diseño se caracteriza por una serie de etapas de refinamiento de la idea original. Existe una interpretación de las necesidades básicas, las cuales se convierten en restricciones técnicas que ayudan a acotar y delimitar el diseño para lograr las características del producto. Este proceso comúnmente se caracteriza por una enorme gama de soluciones en las primeras etapas, que se van reduciendo conforme se delimita el diseño (figura 9.8). CARACTERÍSTICAS DE DISEÑO ESPECTRO DE SOLUCIONES DEFINICIÓN DE LOS REQUERIMIENTOS DEL PRODUCTO PROBLEMA REQUERIMIENTOS FUNCIONALES DEL PRODUCTO EVALUAR DIA GNÓSTICO GRADO DE INCORPORACIÓN PROCESO FUNCIONES PRINCIPIOS ESTRUCTURA DE CONJUNTO ESTRUCTURA REQUERIMIENTOS DE ESTRUCTURA Y MATERIAL FORMA DE LOS ELEMENTOS MATERIALES DISEÑO GENERAL DIMENSIONES CALIDAD DE LA SUPERFICIE DISEÑO DE DETALLE FIGURA 9.8 [Modificado a partir de López Sanromán, 2004] DETALLE DE FORMA 244 Capítulo 9 Diseño y desarrollo de productos: un enfoque CAD El diseño conceptual así logrado refleja de manera burda las proporciones aproximadas del sistema, las relaciones geométricas entre los diferentes componentes y brinda los primeros acercamientos a problemáticas a las cuales se enfrentará el diseño final. El diseño de detalle provee las dimensiones finales de cada uno de los componentes del sistema con sus respectivas tolerancias; asimismo, acota de manera precisa las interrelaciones geométricas entre los diferentes componentes. El diseño de detalle provee toda la información necesaria para maquinar cada uno de los componentes, respetando todas las restricciones técnicas pertinentes y acotando la brecha de información entre el diseño conceptual y el final. Se provee la información en forma de esquemas y planos de cada una de las partes, así como una hoja de ruta para el ensamble del sistema. Cada una de las piezas que componen el sistema se debe tratar de manera aislada, para que el supervisor entienda cuáles fueron los pasos para llegar al FIGURA 9.9 [Modificado a partir de Andere, 2004] 9.7 Estrategias modernas de diseño considerando PLM 245 diseño final de cada pieza o, en su caso, cuáles fueron las razones para escoger una pieza comercial sobre otras. Para el ejemplo del ventilador se muestran imágenes de algunos componentes del sistema, así como del ensamble final logrado, como un primer diseño de detalle. 9.6 Pruebas y prototipos mediante CAM Ningún diseño es infalible ni se sabe todo lo relevante acerca de él mientras no haya sido validado a partir de pruebas reales. Las pruebas experimentales son herramientas muy poderosas que permiten aprender, verificar y validar el diseño logrado; pueden realizarse solamente en componentes aislados, subsistemas o en el producto completo. Sin embargo, es necesario tener f ísicamente el componente a probar, lo cual se puede lograr por medio de técnicas de prototipos rápidos o de manufactura integrada por computadora, como las descritas en el capítulo 7. Los prototipos pueden probarse en varios aspectos, dependiendo de la información que se busca. Por ejemplo, es posible hacer pruebas para caracterizar los materiales a ser usados; también se pueden hacer para verificar el correcto diseño en términos ergonómicos del producto, etcétera. Es muy importante definir cuál es el propósito de las pruebas a realizar, ya que consumen recursos materiales y humanos, lo cual se refleja en costos y tiempo. En el caso que las pruebas a realizar sean para conocer el espectro completo que pueden tener diferentes variables de un diseño, así como su sensibilidad a los cambios en parámetros, es necesario hacer un diseño detallado del experimento a realizar utilizando técnicas estadísticas. Es también muy importante tomar en cuenta que las pruebas deben proporcionar resultados mesurables y congruentes, por lo que se debe tener especial cuidado en la selección, instalación y calibración de los diferentes instrumentos y sensores que se utilizarán. Las pruebas a realizar no deben centrarse únicamente en el producto en sí, también deben probarse las líneas de producción y procesos de manufactura propuestos, incluyendo los herramentales necesarios para fabricar el producto. Finalmente, cuando el producto se encuentra en las fases finales es conveniente proporcionar ejemplares del mismo a usuarios expertos, ya sean internos o externos, para que al usar el producto detecten posibles áreas de mejora antes del lanzamiento formal y masivo en el mercado. 9.7 Estrategias modernas de diseño considerando PLM El uso de cualquier método de diseño en particular durante el proceso del diseño será, a menudo, un esfuerzo que desviará de la tarea central de dise- 246 Capítulo 9 Diseño y desarrollo de productos: un enfoque CAD ñar. Sin embargo, ésta es exactamente la importancia de usar un método; significa la aplicación de algún pensamiento en el cual se está abordando el problema. Requiere de cierto pensamiento estratégico para el manejo del proceso del diseño. Una estrategia de diseño describe el plan de acción general para el proyecto y la secuencia de las actividades particulares que el diseñador, o el equipo de diseño, espera adoptar para seguir con el plan. Al tener una estrategia, es necesario saber hacia dónde se dirige y cómo se llegará ahí. El propósito de la estrategia es asegurarse que las actividades continúan siendo realistas respecto a tiempo, recursos, etcétera, dentro de los cuales debe trabajar el equipo de diseño. Muchos diseñadores parecen funcionar sin una estrategia explícita de diseño; sin embargo, trabajar sin algún plan evidente para la acción puede ser una estrategia, la cual se llama estrategia de búsqueda al azar. En el extremo opuesto a esta búsqueda, se encuentra una secuencia completamente fiable o prefabricada de acciones ya probadas. Estilos de la estrategia. La búsqueda al azar y las estrategias prefabricadas representan dos formas extremas. En la práctica, la mayoría de los proyectos de diseño requieren una estrategia que tienda en alguna parte de cualquiera de estas dos, así como elementos de los contenidos de ambos. La estrategia de búsqueda al azar representa un acercamiento predominante divergente del diseño; la estrategia prefabricada representa un acercamiento predominante convergente. Normalmente, el objetivo global de una estrategia de diseño tenderá a converger sobre una final, evaluada y detallada del diseño; pero dentro del proceso para alcanzar el diseño final, habrá ocasiones en que será apropiado y necesario divergir, para ensanchar la búsqueda o buscar nuevos puntos de partida e ideas. El proceso del diseño total es, por lo tanto, convergente, pero contendrá periodos de la divergencia deliberada. Los psicólogos han inferido que algunas personas son naturalmente convergentes y otras son naturalmente divergentes. En un contexto de equipo, los diseñadores con un estilo preferido pueden ir a la delantera en ciertas etapas. Los pensadores convergentes son generalmente hábiles en el diseño del detalle, en la evaluación y la selección de la mayoría de las ofertas factibles para un intervalo de opciones. Los pensadores divergentes son generalmente diestros en el diseño de concepto y en la generación de una amplia gama de alternativas. Ambas clases de pensadores son claramente necesarias para el diseño acertado. Una de las dicotomías más importantes del estilo de pensamiento aparece entre el serial y el concurrente. El proceso serial prefiere proceder poco a poco, en pasos cortos para conseguir cada punto claramente; mientras que el proceso concurrente prefiere proceder con un frente mucho más amplio, usando las partes de la información que no están conectadas necesariamente de manera lógica, y haciendo a menudo cosas fuera de secuencia. 9.7 Estrategias modernas de diseño considerando PLM 247 Otra distinción importante entre los dos estilos de pensamiento la constituyen el pensamiento lineal y el lateral. El pensamiento lineal procede rápida y eficientemente en dirección a un objetivo, pero puede quedarse estancado en una encrucijada, ya que sigue procedimientos preestablecidos; el pensamiento lateral exige la preparación para ver y moverse hacia nuevas direcciones del pensamiento. Para cualquier diseñador, ya sea individual o como miembro de un equipo de diseño, abordar el problema y alcanzar la meta implicarán las habilidades estratégicas como entrenador, y las habilidades tácticas como jugador. Conviene tener en cuenta que, como equipo, deberán hacerse revisiones de media jornada de la estrategia, para asegurarse que el problema se aborda de la manera correcta. Una estrategia del diseño, por lo tanto, debe proveer dos elementos: un marco de acciones previstas dentro del cual se operará y una función de control de la gerencia, que permita adaptar acciones para aprender más sobre el problema. Control de la estrategia: el segundo aspecto importante de una estrategia acertada de diseño es que conlleva un elemento importante de control en su manejo. Si usted está trabajando individualmente en un proyecto, eso significa que también es el único administrador del proyecto. Si está trabajando como parte de un equipo, el líder del equipo o un consenso de los miembros hace revisiones del progreso y decide modificaciones en la estrategia. Independientemente del marco general que se adopte para el proyecto, es necesario tener cierto control de la estrategia para evitar tiempo perdido. Las siguientes son algunas reglas simples del control de la estrategia: • • • • Mantenga sus objetivos claros. En el diseño es imposible tener un sistema de objetivos completos y fijos, porque los extremos y los medios se entretejen en el producto. Una resolución creativa implica a menudo el cambio de alguno(s) de los objetivos originales. Sin embargo, esto no significa que no existan objetivos claros. Mantenga su estrategia bajo revisión. Una estrategia del diseño necesita ser flexible, adaptable e inteligente; repásela regularmente. Si usted percibe que sus acciones no están siendo muy productivas, entonces debería detenerse brevemente para preguntarse si hay una manera mejor de proceder. Participación de la gente. Un problema se puede ver de diferentes formas, y es a menudo verdad que “dos cabezas son mejores que una”. Una de las maneras más fáciles de clasificar un problema se puede desarrollar mediante la explicación de éste a otros individuos, y así generar más y mejores soluciones. Mantener archivos separados para cada aspecto. Mantener archivos separados para cada aspecto permite alternar rápidamente de uno a otro. Posiblemente generará ideas a cada momento, por lo que necesitará mantenerlas guardadas hasta que el proyecto esté terminado. 248 Capítulo 9 Diseño y desarrollo de productos: un enfoque CAD EJERCICIOS PROPUESTOS 1. ¿Cuáles son los principales factores que se deben tomar en consideración para el desarrollo de un concepto? 2. Muestre gráficamente y en orden los cinco pasos a seguir en la planeación de un producto. 3. Suponga que cierta empresa de artículos de higiene personal desea diseñar un pañal de bebé para lanzarlo a la venta. Elabore la tabla de Misión del producto para este nuevo artículo. 4. Mencione ejemplos de empresas que usen las siguientes estrategias corporativas: liderazgo tecnológico, liderazgo en costos, enfoque al cliente e imitación. 5. Desarrolle una casa de calidad para los siguientes productos: a) Mouse óptico inalámbrico b) Pluma fuente de escritura 6. Genere una estrategia para los objetos del problema anterior. 7. Desarrolle un cuadro comparativo de los cuatro principales softwares usados en el CAD. Referencias Andere Portas, E. (2004). Estudio de un marco de diseño integral con evaluación de impactos ambientales y logísticos, trabajo final de titulación supervisado por el doctor Sergio Romero, Instituto Tecnológico Autónomo de México. Crawford, C. M. y Di Benedetto, C. A. (2000). New Products Management, 6a. Ed. McGraw-Hill, Nueva York. Cross, Nigel. (2000). Engineering Design Methods, Strategies for Product Design. 3a Ed. John Wiley & Sons, Londres. Dym, C. L. y Little, P. (2001). Engineering Design: A Project Based Introduction, John Wiley & Sons, Nueva York. Gigola, C., Romero-Hernández, O. y Romero-Hernández, S. (2004). “Diseño de nuevos productos: una actividad multidisciplinaria”, en Dirección Estratégica, núm. 12, año 4, México. Graedel, T. E. y Allenby, B. R. (1996). Design for Environment, Prentice Hall, Nueva York. Hayes, R. H., Wheelwright, S. C. y Clark, K. B. (1988). Dynamic Manufacturing: Creating the Learning Organization, The Free Press, Nueva York. López Sanromán, R. y Romero Hernández, S. (2004). Design of an Impact Test System for Polymers, ICAMES, Bogazici Universitesi, Estambul. Romero-Hernández, S. (2002). “Ingeniería total asistida por computadora: menores tiempos, menores costos, innovación efectiva”, en Dirección Estratégica, núm. 2, año 1, México. Romero-Hernández, S. y Romero-Hernández, O. (2003). “A Framework of Computer Aided Engineering and LCA applied for Life Cycle Management”, en LCA/LCM International Conference, Seattle, septiembre. Romero-Hernández, S., Gigola, C. y Romero-Hernández, O. (2004). “Incorporation of Effective Engineering Design, Environmental Performance and Logistics Planning for Products LCM”, en 2nd World POM Conference, Cancún, México. Ullman, D. G. (2003). The Mechanical Design Process, 3a. Ed. McGraw-Hill, Nueva York. Ulrich, K. T. y Eppinger, S. D. (2000). Product Design and Development, McGraw-Hill (Higher Education), Nueva York. CAPÍTULO 10 Ingeniería económica AUTORES: Dr. Miguel de Lascurain Morhan Ing. Roberto Apáez Flores 10.1 Rentabilidad 10.2 Principales medidas de rentabilidad 10.3 Fuentes de recursos financieros 10.4 Estudio de caso 10.1 Rentabilidad Un proyecto de ingeniería industrial tiene que ser técnicamente viable, operativamente confiable y eficiente, amigable con el medio, ergonómico y, en general, satisfacer todos los requerimientos y necesidades establecidos en su diseño. Más importante que lo anterior, el proyecto tiene que ser económicamente rentable. La rentabilidad de un proyecto no solamente le compete a los accionistas y dueños de una empresa. A un trabajador también le conviene la rentabilidad de los proyectos, ya que una empresa rentable puede pagar mejores salarios y proveer una mayor seguridad en el empleo. Los acreedores de una empresa también se benefician con proyectos rentables porque aseguran el pago de sus préstamos. En general, la sociedad se beneficia por los proyectos rentables, ya que son éstos los que hacen un uso eficiente de los recursos escasos y su implantación se traduce en mejores bienes y servicios para toda la sociedad. Exactamente lo contrario puede decirse de los proyectos no rentables. Es interesante hacer notar que en el idioma inglés se utiliza la palabra shareholder para denominar a los accionistas de una empresa y la palabra stakeholder para nombrar a todas aquellas personas que se ven beneficiadas cuando una empresa cumple con su cometido social de ser rentable 250 Capítulo 10 Ingeniería económica o perjudicadas cuando no lo logra. No existe una palabra en castellano que defina esta característica. Empero, ¿cuándo se puede decir que un proyecto es rentable? ¿Cómo se puede medir la rentabilidad de un proyecto cuando éste ni siquiera ha sido realizado? Contestar estas preguntas es el objetivo de este capítulo; sin embargo, conviene introducir varios conceptos que serán utilizados más adelante. Para tomar decisiones es necesario poder comparar cosas que tengan la misma naturaleza: peras con peras y manzanas con manzanas, como se dice comúnmente. Entre dos proyectos opcionales uno elige aquel que produzca mayores utilidades o el que sea más amigable con el medio. También es necesario reducir todas las variables de comparación a una sola. Por ejemplo, ¿cómo decidir entre un proyecto que daría más utilidades pero provocaría más daños al medio y otro más amigable con el ambiente pero que produciría menor utilidad? Para poder tomar una decisión en este caso, habría que expresar los daños al medio y las utilidades en las mismas unidades. En ingeniería económica las unidades de medición son los recursos financieros o, en términos llanos, el dinero. La rentabilidad de un proyecto se mide en pesos y centavos. Todas las variables de importancia en un proyecto determinado tienen que ser expresadas en términos monetarios para poder comparar este proyecto con otros o con inversiones financieras alternativas. Estudios profundos sobre el dinero pueden encontrarse en cualquier texto sobre teoría monetaria. Aquí solamente interesa saber que el dinero tiene dos propiedades fundamentales: por una parte, es un medio de intercambio entre mercancías o servicios y, por la otra, tiene un valor intrínseco propio, como cualquier otro bien o servicio, y se ajusta a las leyes de la oferta y la demanda, a pesar de que actualmente el dinero es un simple papel fiduciario, sin ningún soporte material tangible, como lo fueron el oro y la plata durante siglos. Es conveniente ilustrar esta dualidad mediante un ejemplo: una persona que recibe un salario dedica parte de éste a la satisfacción de sus necesidades inmediatas, esto es, paga la renta, la comida, el hospedaje, etc. Si es afortunada, la otra parte la guarda como ahorro para satisfacer necesidades futuras. Esta persona hipotética bien podría ahorrar en mercancías no perecederas (arroz, maíz o cerveza en lata); sin embargo, la gran mayoría de la gente que ahorra lo hace en bienes financieros. Lo que es más, actualmente cuando el ser humano piensa en riquezas lo hace pensando en fajos de dólares o, cada vez menos, en monedas de oro y plata, en vez de las pilas de mercancías o múltiples servicios que podría adquirir con el dinero ahorrado. Esta dualidad influye sobre el valor del dinero. Por un lado, el valor del dinero como medio de intercambio se afecta principalmente por la infla- 10.1 Rentabilidad 251 ción y la deflación; por el otro, el valor del dinero como bien se afecta por las tasas de interés que ofrece el ahorro en diferentes inversiones. Siguiendo el ejemplo, en un medio con inflación, si la persona mantuviera el mismo salario, su capacidad de adquirir satisfactores inmediatos se iría reduciendo al mismo ritmo que la inflación y su capacidad de ahorro menguaría. Si no recibiera un aumento salarial, la persona gastaría su salario lo más rápidamente posible para poder adquirir más mercancías y pagar más servicios. En otras palabras, en un medio inflacionario el dinero pierde valor frente a los otros bienes y cada vez se requiere más dinero para adquirir los mismos bienes y servicios, y las personas gastan rápidamente su dinero porque no hay incentivos para ahorrar. Aunque la deflación es un fenómeno menos común, provoca efectos contrarios a los que causa la inflación. Si el asalariado en cuestión supiera que los artículos que consume los va a encontrar más baratos el día o la semana siguiente, diferiría sus compras en la medida de lo posible. Por ello, la deflación desalienta los intercambios económicos y fomenta el ahorro. La deflación puede ser más perniciosa que la inflación, ya que puede llegar a paralizar la actividad económica. En cuanto al dinero como un bien sujeto a las leyes del mercado, esto es un bien que se compra y se vende, de una forma muy simplista uno compra el dinero al ahorrar y lo vende al gastar. Ahora bien, uno puede ahorrar de diversas maneras. La más simple sería la de mantener el dinero en una caja fuerte o debajo del colchón. Sin embargo, si uno siguiese esta opción estaría perdiendo la oportunidad de ganar más dinero si depositara el ahorro en una cuenta bancaria con intereses o en otros instrumentos financieros que más adelante se tratarán y que incluyen la compra de divisas. El dinero que no se invierte pierde valor, ya que se está dejando pasar la oportunidad de acrecentarlo mediante la ganancia de intereses. Ahorrar con un tercero implica un acto de fe por parte del ahorrador, ya que en los tiempos establecidos recibirá los intereses o la plusvalía pactados y recuperará su inversión original. Entonces, entre menos seguridad tenga el ahorrador de que recibirá su dinero al vencimiento de su inversión, mayor tasa de interés exigirá para prestarlo. Por esto, la tasa de interés y el riesgo implícito en una inversión están directamente relacionados. A mayor riesgo, mayor tasa de interés demandará el posible inversionista. Por lo mismo, en una inversión el riesgo y el rendimiento deben ser evaluados simultánea y cuidadosamente. Por propósitos didácticos se han separado las dos propiedades del dinero. Pero el dinero es único. Ahora se volverán a integrar mediante el ejemplo que se ha venido utilizando. Supóngase que el asalariado tiene en sus manos $100 que puede invertir y que la inflación anual en su país es de 3%. Esto quiere decir que si no invierte su dinero, en un año los $100 tendrían un poder de compra de $100 $97.09. Por esto, la tasa de interés que el asalariado debe exigir para 1.03 252 Capítulo 10 Ingeniería económica su inversión debe ser mayor que la tasa de inflación, ya que de no ser así, le convendría gastar su dinero en otros bienes. Supóngase que el asalariado puede invertir en una cuenta de valores que le da 5% de interés anual fijo. En un año el asalariado entonces tendría $105, que tendrían un poder de compra de: $100 1.05 $101.94 1.03 Si se denota como i a la tasa de interés y como s a la tasa de inflación, entonces r, el resultado de aplicar la siguiente fórmula: r 1i 1s 1 que se conoce como tasa de interés real. Esta tasa será positiva o negativa en la medida que la tasa de interés sea mayor o menor que la inflación. Entonces, para que exista ahorro e inversión en un país debe haber instrumentos financieros o proyectos de inversión que ofrezcan tasas de interés reales positivas. En el ejemplo presentado se suponen tasas de interés y de inflación que se pagarán en un año con absoluta certeza. Esto normalmente no es así. Aunque no existe la seguridad absoluta que un interés o una plusvalía se pagarán al vencimiento —todo puede suceder—, sí existen agentes financieros cuya certeza relativa de pago es mayor que la de los demás; el gobierno o el banco central de un país son buenos ejemplos de esto. A la tasa de interés que paga aquel agente financiero que tiene la mayor certidumbre de pago se le conoce como tasa libre de riesgo. La tasa que paga el gobierno de un país se considera que tiene riesgo soberano. Como se mencionó, si la tasa y el riesgo están relacionados en forma directa, entonces la tasa libre de riesgo debe ser la menor del mercado. En muchas ocasiones la tasa pactada en una inversión está basada en la tasa libre de riesgo o en una tasa de referencia más una tasa fija, en este caso se dice que la inversión paga una tasa de interés variable. Asimismo, puede notarse cómo la tasa de interés es una medida del precio relativo del dinero. Una divisa considerada como fuerte pagará una tasa de interés relativamente más baja que una divisa débil. Verbigracia, los Bonos del Tesoro de Estados Unidos pagan una tasa de interés menor que la tasa que pagan los Bonos de Desarrollo mexicanos y las inversiones en francos suizos prácticamente no pagan intereses. La tasa de interés y el precio del dinero están inversamente relacionados. En forma muy amplia, la tasa de interés real de un país deberá estar correlacionada con la tasa de crecimiento económico. Ahora ya es posible contestar la primera de las preguntas planteadas al principio de la sección: un proyecto de ingeniería industrial será rentable en la medida que produzca rendimientos iguales o superiores a los que ofrezcan instrumentos de inversión con un riesgo semejante emitidos en el mismo mercado. 253 10.2 Principales medidas de rentabilidad $105 $5 FIGURA 10.1 Diagrama de la inversión $5 $5 $5 $100 10.2 Principales medidas de rentabilidad Rendimientos financieros: para medir la rentabilidad de un proyecto de ingeniería industrial conviene primero introducir medidas de rentabilidad financieras, que son más simples de explicar y que, en esencia, son idénticas a las empleadas en la evaluación de proyectos industriales. Existen varias formas de medir la rentabilidad de un instrumento financiero. Aquí solamente se presentan las más comunes: el valor presente neto y la tasa interna de rendimiento. Ilustrando la materia con un ejemplo sencillo, supóngase que se adquiere un bono con valor nominal de $100 y que paga una tasa de interés anual de 5% —libre de impuestos— al final de cada año durante cinco años consecutivos. El diagrama de la inversión se muestra en la figura 10.1. Las flechas por debajo de la línea horizontal denotan inversiones, y las flechas por encima, rendimientos para el tenedor del bono. En general, estas flechas denotan flujos netos de dinero; unas serán negativas si implican erogaciones de efectivo para el tenedor del bono, o positivas si indican lo contrario. El espacio entre las flechas indica el periodo entre flujos de efectivo que, en este ejemplo, es de un año. En el quinto año el tenedor del bono recibe su inversión original más los intereses del periodo. Ahora bien, en la fecha de adquisición del bono el valor de los intereses $5 que se recibirán a fines del primer año tienen un valor descontado de 1.05 $4.76. Esto quiere decir que si estos $4.76 se invirtiesen al principio del año a una tasa de 5%, se recibirían $5 al final del primer año. De la misma forma, los intereses que se recibirán al final del segundo año tienen un valor $5 descontado de $4.54 al inicio de la inversión, pues si uno invirtiese 1.052 esta cantidad a dos años a una tasa de 5% recibiría $5 al final del segundo año. En el cuadro siguiente se muestran los flujos descontados de los ingresos correspondientes a la figura 10.1 evaluados al principio de la inversión. 254 Capítulo 10 Ingeniería económica Año Flujo Flujo descontado 1 $5 $4.76 2 $5 $4.54 3 $5 $4.32 4 $5 $4.11 5 $105 $82.27 Obviamente, si se suman estos flujos descontados el valor es $100, la cantidad que se está invirtiendo. Más formalmente, si a0, a1, a2,…, an denotan los flujos netos de efectivo, positivos, negativos o cero, asociados con un proyecto de inversión que tiene flujos en n periodos iguales, el valor presente neto de la inversión, evaluada en el periodo cero a una tasa de interés i, se define como: a0 a1 (1 i) a2 (1 i) 2 … an (1 i)n La tasa de interés i usada en la fórmula anterior se conoce como tasa de descuento. Por la forma en que está planteado el ejemplo, su valor presente neto es cero. En general, si se aplica la fórmula a un esquema de flujos netos de efectivo, el valor presente neto descontado a una tasa determinada será positivo si el rendimiento de la inversión excede la tasa de descuento, o negativo si el rendimiento de la inversión es menor que la tasa de descuento. A aquella tasa de descuento que hace que el valor presente neto de una inversión sea igual a cero se le conoce como tasa interna de rendimiento o retorno (TIR). Así, el ejemplo presentado tiene una TIR de 5%, que es la tasa de rendimiento establecida para el bono. Ahora se ilustrará el empleo de estas medidas de rentabilidad mediante un ejemplo sencillo. Supóngase que se tiene un presupuesto de $120 para realizar uno de tres proyectos de inversión que tienen diferentes flujos netos de retorno. Se pide como condición que los proyectos tengan más de 5% de rendimiento. Estos proyectos se muestran en la tabla siguiente. ¿Cuál de los tres debería realizarse? Periodo (años) Proyecto 1 ($) Proyecto 2 ($) Proyecto 3 ($) 0 120 120 120 1 4 14 9 2 5 14 10 3 12 7 7 4 18 9 15 5 131 124 129 10.2 Principales medidas de rentabilidad 255 Si se calcula el valor presente neto descontado a una tasa de 5% de los tres proyectos se obtienen las cifras de $16.16, $16.64 y $17.10 para el primer, segundo y tercer proyectos, respectivamente. Esto quiere decir que los tres proyectos tienen una rentabilidad mayor que 5%, por lo que cumplen con la condición establecida. Asimismo, uno pensaría que el tercer proyecto debería realizarse, pues es el que tiene el mayor valor presente neto. Empero, si se calcula la tasa interna de rendimiento se obtienen tasas respectivas de 7.98%, 8.33% y 8.17%. Bajo esta medida el segundo proyecto debería realizarse y no el tercero, pues el segundo es el de mayor rentabilidad. ¿Existe alguna contradicción entre la tasa interna de retorno y el valor presente neto? No, ninguna. Para demostrarlo, si se calcula el valor presente neto de los tres proyectos descontados a la tasa interna de retorno del segundo proyecto —la mayor de las tasas internas— se obtienen valores presentes netos negativos para el primer y tercer proyectos, y de cero para el segundo, como era de esperarse. El segundo y tercer proyectos tienen el mismo valor presente neto si se descuentan a una tasa de 6.9% y, para tasas mayores que ésta, el segundo proyecto tiene un mayor valor presente neto. En resumen, la medida de rentabilidad de un proyecto financiero es la tasa interna de rendimiento; sin embargo, en la práctica el cálculo del valor presente neto es más sencillo que el de la tasa interna de rendimiento. El valor presente neto puede usarse como medida de rendimiento si, como se vio en el ejemplo anterior, se utiliza como tasa de descuento a la mayor tasa interna de rendimiento entre las diferentes opciones que se están evaluando. Esta tasa puede ser encontrada fácilmente en forma iterativa. Como se mencionó en la primera sección, el riesgo de un proyecto financiero debe evaluarse simultáneamente con su rendimiento. La evaluación del riesgo de inversiones financieras es un tema fuera del alcance de este capítulo. En la vida real, existen empresas especializadas en la medición del riesgo relativo de las inversiones financieras. A estas empresas se les conoce como empresas calificadoras de riesgo, siendo las más importantes Fitch, Standard & Poor’s y Moody’s Investors Service. Los departamentos de análisis de las principales instituciones financieras también evalúan y publican el riesgo relativo de diferentes inversiones. Empero, desde un punto de vista pragmático, se puede estimar el riesgo de una inversión asociando distribuciones de probabilidad a los flujos de efectivo de un proyecto financiero y utilizando el método de simulación Monte Carlo (véase capítulo 15). Mediante este procedimiento se pueden estimar las distribuciones de probabilidad de las medidas de rendimiento. Normalmente sólo se emplean la media y la desviación estándar de las medidas de rentabilidad para tomar decisiones entre inversiones alternativas, siendo la desviación estándar la medida de riesgo comúnmente utilizada. Se considera que una mayor desviación estándar implica un mayor riesgo en la inversión. 256 Capítulo 10 Ingeniería económica Ahora bien, si se cuenta con información sobre la distribución de probabilidad de los flujos de efectivo de un proyecto financiero, haciendo uso de simulación Montecarlo se pueden obtener diversos VPN’s asociados a diversas probabilidades de ocurrencia, y estimar un VPN esperado1 (VPNE) como promedio ponderado de un universo de VPN’s, y las probabilidades de ocurrencia asociadas a cada VPN. Igualmente, se pueden obtener diversas TIR’s para el mismo proyecto, cada una asociada a una probabilidad de ocurrencia, e igualmente se puede estimar una TIR esperada como promedio ponderado del universo de TIR’s y sus probabilidades de ocurrencia asociadas. Rendimiento de un proyecto de ingeniería industrial: con las bases anteriores es posible abordar el tema del cálculo del rendimiento de un proyecto de ingeniería industrial. En teoría, bastaría con establecer claramente cuáles son los flujos de efectivo correspondientes a un proyecto para calcular su TIR. Si este valor excediera una tasa de rendimiento predeterminada, el proyecto se llevaría a cabo. También, de ser necesario, mediante simulación Monte Carlo se podría medir el riesgo de un proyecto de ingeniería industrial y tomar la decisión de realizar el proyecto solamente en caso que, además de exceder una tasa de rendimiento predeterminada, se hiciera dentro de un margen de riesgo razonable. La aplicación de modelos de análisis financiero más complejos, como es el caso de la valuación de opciones financieras, puede también servir de base para la valuación de proyectos industriales, en donde un proyecto pudiera abandonarse y luego reanudarse, dependiendo de ciertas condiciones. En la práctica existen problemas de toda índole en la aplicación de métodos financieros para la evaluación de la rentabilidad de proyectos industriales. Existen serios problemas en la determinación de: • • • Los flujos netos de efectivo asociados con un proyecto. Una tasa de descuento adecuada para el proyecto. La duración y el vencimiento de un proyecto industrial. Sin profundizar en el tema, considérese como ejemplo el lanzamiento de un nuevo producto. Aunque es posible tener una buena estimación de las inversiones requeridas, el pronóstico de las ventas y de los gastos operativos frecuentemente se desvían bastante de la realidad, ya que en la determinación de los pronósticos intervienen variables fuera del control del practicante. Si es dif ícil pronosticar las variables pertinentes en países con relativa estabilidad económica, fiscal, política y laboral, es imposible hacerlo en países en donde esto no sucede y las tasas de interés, el tipo de cambio, la inflación y el costo de los energéticos son variables punto menos que impredecibles. 1 Para mayor detalle sobre el uso de VPNE, consulte Flaig, J. J. (2005), “Improving Project Selection Using Expected Net Present Value Analysis”, en Quality Engineering, vol. 17, p. 538. 10.3 Fuentes de recursos financieros 257 También, aunque pudiera decirse que un proyecto financiero puede adolecer de los mismos problemas que los apuntados anteriormente, en un proyecto de ingeniería industrial estos problemas se magnifican, ya que los proyectos industriales normalmente están ligados a proyectos financieros, como se verá en la siguiente sección. Esto no quiere decir que las medidas financieras no deben emplearse en proyectos industriales. Todo lo contrario. La disciplina que impone realizar pronósticos de mediano y largo plazos de los ingresos y gastos asociados con un proyecto industrial, marcan la diferencia en muchas ocasiones, por lo que es recomendable efectuar análisis financieros de los proyectos antes de realizarlos. Al final del capítulo se muestra un ejemplo de proyecto industrial y su valuación. 10.3 Fuentes de recursos financieros Fuentes propias y ajenas: un proyecto de ingeniería industrial requiere recursos financieros para su realización y generar recursos financieros. En esta sección se tratará el tema de las fuentes de recursos necesarios para financiar —o fondear, como se dice comúnmente— un proyecto industrial. En términos generales, independientemente de la fuente del financiamiento, cuando se habla de un financiamiento o de un préstamo se deben considerar cuatro factores de importancia: • • • • El monto del financiamiento. El plazo de recuperación del préstamo. La tasa del financiamiento. Las garantías de cumplimiento del préstamo. Cada proyecto presentará características diferentes en cuanto a los factores mencionados, como se podrá apreciar más adelante. En cuanto a las fuentes de financiamiento, los recursos necesarios para financiar un proyecto de ingeniería industrial pueden provenir de múltiples orígenes. Aquí solamente se mencionan los más comunes e importantes. En términos amplios, las fuentes de fondos se pueden dividir en dos: propias y ajenas. Las fuentes propias pueden provenir de recursos de la misma empresa que realiza el proyecto, o de los accionistas de la empresa mediante aportaciones específicas por aumentos de capital o por préstamos directos. En muchas ocasiones el fondeo propio es el preferido, ya que los rendimientos se quedan totalmente en la empresa y se maximiza la privacidad de las operaciones. Además, pueden existir ventajas fiscales derivadas de la reinversión de utilidades. Asimismo, la determinación del monto, el plazo, la tasa y las garantías de los financiamientos propios son relativamente sencillos y expeditos. 258 Capítulo 10 Ingeniería económica Sin embargo, existen ocasiones en que el tamaño de la inversión no permite que el financiamiento pueda ser cubierto con fuentes propias y se recurre a fuentes ajenas. Pero éste no es el único caso, ya que acudir a fuentes externas de financiamiento también tiene sus ventajas, entre las cuales solamente se mencionan tres. La primera es meramente financiera: realizar un proyecto exitoso con dinero totalmente ajeno tiene una tasa de rendimiento infinita para los accionistas de la empresa. La segunda: tener que cumplir con obligaciones ante terceros, generalmente introduce una mayor disciplina en la ejecución y control de un proyecto. Por último, el uso oportuno del crédito puede tener una ventaja competitiva muy importante, ya que, llevado al extremo, el crédito que una empresa no utiliza puede ser empleado en su perjuicio por sus competidores. En forma muy amplia, las fuentes ajenas de financiamiento se pueden dividir en tres tipos, y se tratarán en los apartados siguientes: • • • Financiamiento de clientes y proveedores. Financiamiento de instituciones de crédito. Financiamiento del mercado. Financiamiento de clientes y proveedores: financiarse a través de los clientes y, sobre todo, de los proveedores es una forma muy común de obtener fondos para la realización de un proyecto. En el primer caso, una empresa puede obtener fondos de uno de sus clientes mediante un contrato por el que la empresa financiada se obliga a vender su producto con descuento al cliente por un periodo establecido. Esta forma de financiamiento sucede frecuentemente en aquellos casos en que el cliente busca un nuevo producto de su proveedor y, por ello, le ayuda a producirlo. El monto, el plazo y la tasa del financiamiento se acuerdan entre las partes. El cumplimiento de las ventas futuras, en plazos y cantidades, normalmente se asegura mediante fianzas que expiden instituciones de seguros y fianzas. El financiamiento de los proveedores es mucho más común, ya que es una forma en que éstos pueden apoyar sus propias ventas. Como ejemplo, los proveedores de equipo industrial normalmente ofrecen atractivos planes de financiamiento para colocar sus equipos en las empresas, debido a que el costo relativamente alto de los equipos impide su adquisición directa por las empresas. En este tipo de financiamiento la empresa adquiere el equipo de su proveedor y lo paga a plazos a una tasa negociada entre las partes. En garantía de cumplimiento del préstamo queda el propio equipo y éste se asegura contra daños surgidos en su operación. Es común que la empresa financiada también se comprometa a seguir un programa de mantenimiento establecido por el proveedor. Es importante hacer notar que muchas empresas proveedoras de equipo cuentan con sus propias empresas financieras que apoyan sus ventas. El ejemplo más notorio es el caso de General Electric (GE), cuyo brazo finan- 10.3 Fuentes de recursos financieros 259 ciero (GE Capital) tuvo tanto éxito que se conformó como organismo independiente de la empresa madre. Asimismo, casi todos los países industrializados cuentan con organismos financieros públicos de apoyo a la exportación que otorgan préstamos blandos (subsidiados) a las empresas de su país, para promover la venta de bienes y servicios en otros países, como es el caso de Bancomext, en México, o del Eximbank de Estados Unidos. El financiamiento obtenido de los bancos de fomento a la exportación por las empresas proveedoras se transfiere a bajo costo a sus clientes. Un problema muy común derivado de préstamos de proveedores extranjeros es que los préstamos normalmente se realizan en sus propias divisas, por lo que la empresa deudora debe contemplar algún mecanismo de cobertura que limite el riesgo implícito de una devaluación. Financiamiento de instituciones de crédito: por institución de crédito aquí se entiende a aquella empresa que presta fondos propios, sin importar cómo los haya captado, como es el caso de un banco comercial. El fondeo a través de estas instituciones es quizás el más empleado de todos los financiamientos externos. En este tipo de préstamos la institución de crédito y el deudor potencial analizan el proyecto industrial y su viabilidad económica para determinar el monto del préstamo y los plazos y formas de pago. El tiempo destinado a estos estudios puede ser relativamente largo y depende, en la mayoría de casos, de la rentabilidad del proyecto, de la existencia de una buena relación entre la institución de crédito y su cliente, y de la calidad crediticia del propio cliente. La aprobación de un crédito normalmente la realiza la institución mediante comités establecidos ex profeso. Asimismo, el seguimiento del proyecto se realiza en forma colegiada entre la institución y el deudor, por lo que el acreedor puede llegar a involucrarse en la operación del deudor. Dependiendo del activo utilizado como garantía del financiamiento se pueden distinguir diferentes tipos de préstamos. • • • • Préstamos quirografarios, son préstamos sin garantía específica; la garantía es la firma del deudor. (No son muy del agrado de la banca comercial.) Préstamos avalados, son préstamos de cuyo cumplimiento responde un tercero, que demuestra tener los activos suficientes para cubrir el riesgo del préstamo. El tercero puede ser una persona f ísica o una empresa. Préstamos con garantía en acciones de la empresa, este tipo de préstamo puede ser utilizado cuando las acciones de la empresa cotizan en la bolsa de valores y tienen bastante liquidez. Las acciones se depositan en un fideicomiso y normalmente son regresadas al deudor conforme se va liquidando el crédito. Arrendamientos financieros, cuando la garantía es uno o varios equipos propiedad de la empresa que recibe el crédito. Los equipos se ceden a la institución de crédito por el monto del crédito y ésta 260 Capítulo 10 • • • Ingeniería económica se los arrienda al deudor por el tiempo y a la tasa pactada entre las partes. Préstamos hipotecarios, cuando la garantía es el terreno o las naves industriales utilizados en el proyecto industrial. Como en el caso anterior, la institución de crédito es dueña del activo hasta la terminación del crédito. Operaciones de factoraje, cuya garantía son las cuentas por cobrar de la empresa y, en esencia, consisten en que la institución de crédito compra con descuento los cobros futuros de la empresa acreditada. Existen variaciones de este tipo de préstamo que están fuera del alcance de este capítulo. Operaciones de almacenaje, cuando la garantía son los inventarios de la empresa. Éstos se almacenan en un local adecuado y son liberados cuando se liquida el préstamo. Este tipo de operación sucede con poca frecuencia en México. Aunque las instituciones de crédito modernas engloban todos los tipos de préstamo, hasta hace pocos años existían instituciones especializadas en cada uno de los tipos mencionados. No sobra decir que en una operación de crédito pueden utilizarse diferentes tipos de garantía. Asimismo, como en el caso de bancos de fomento a la exportación, en muchos países también existen organismos financieros públicos de fomento a la industria, cuya función es proveer de fondos relativamente baratos para realizar proyectos, y así promover la industrialización. El fondeo puede ser directo o indirecto. En el segundo caso se habla de bancos de segundo piso, cuando el banco de fomento a la industria presta los fondos a las instituciones de crédito para que éstas, a su vez, los canalicen a las empresas industriales para la realización de los proyectos más rentables. En algunas ocasiones el banco de fomento se constituye como aval de las empresas en la ejecución de un proyecto. En otras, el banco de fomento sigue las instrucciones del gobierno y promueve un sector económico específico. En México los principales bancos de fomento son Nafinsa y Banobras. Financiamiento del mercado: en este tipo de financiamiento la empresa que realiza el proyecto industrial consigue los fondos directamente de inversionistas interesados en lograr un buen rendimiento en sus inversiones, sin que exista una institución de crédito de por medio. Existen instituciones que se dedican a buscar proyectos rentables para su cartera de inversionistas o que buscan inversionistas para proyectos identificados como rentables. A estas empresas se les conoce como bancos de inversión y no deben confundirse con los bancos comerciales, puesto que, normalmente, el banco de inversión no presta fondos propios. El financiamiento del mercado puede dividirse ampliamente en financiamiento público y financiamiento privado. En el primero, como su nombre lo indica, la invitación a participar en el financiamiento es abierta al 10.3 Fuentes de recursos financieros 261 público inversionista en general, en tanto que en el segundo, solamente un grupo selecto de inversionistas participa en la operación financiera. Los mercados públicos están regulados y vigilados por las autoridades financieras de un país. Asimismo, para que una empresa pueda conseguir fondos del público debe estar inscrita en un mercado o bolsa de valores. Esta inscripción solamente puede ser lograda si la empresa cumple con calificaciones crediticias bastante estrictas y se compromete a publicar sus estados financieros e informes de actividades en forma periódica. Aunque, en principio, cualquier persona podría financiar a una empresa a través del mercado público, en la práctica los mayores participantes del mercado son los fondos de pensiones, los fondos de inversiones, las empresas de seguros y las tesorerías de las instituciones de crédito. Esto es debido a que su tamaño relativo les permite adquirir los financiamientos en mejores condiciones que un pequeño inversionista. Ahora bien, en forma muy amplia se pueden distinguir dos mercados en donde una empresa puede buscar fondeo para sus proyectos a través de la emisión de instrumentos financieros: el mercado de dinero (o mercado de bonos) y el mercado de capitales (o mercado de acciones). En principio, la diferencia entre estos mercados radica en la naturaleza de los instrumentos de inversión que se operan en ellos, aunque esta diferencia puede ser difusa, pues existen instrumentos financieros que pueden tener varias características a la vez. Por ejemplo, un bono convertible en acciones no puede ser clasificado de forma unívoca en ninguno de los mercados mencionados. Por esto, más que concentrarse en entender los diferentes mercados de valores, es mejor entender las características de los instrumentos de inversión de los que podría valerse una empresa para financiar sus proyectos. En el mismo tenor, como el enfoque de esta sección es hacia la consecución de financiamiento, solamente se hará referencia a operaciones del mercado primario. Estos temas se verán en la siguiente sección. Instrumentos financieros: existe una gran variedad de instrumentos financieros; aquí solamente se mencionarán los más comunes que utilizan las empresas para obtener financiamiento para sus proyectos industriales y otros de interés meramente académico. Papel comercial. Históricamente, es uno de los instrumentos más antiguos para obtener financiamiento. Es un instrumento de deuda por el que la empresa emisora se obliga a pagar el préstamo más los intereses en un plazo fijo, normalmente corto. El papel comercial comenzó como una forma en que una empresa que necesitaba recursos de corto plazo los obtenía de otra empresa con la que tenía lazos comerciales. Como las transacciones se realizaban entre empresas conocidas, la garantía de pago del papel comercial era la propia empresa emisora. Por esto, el papel comercial comúnmente paga intereses relativamente altos. Bonos corporativos. Son papeles de deuda emitidos a diferentes plazos, con pagos de intereses en plazos fijos (el llamado corte de cupón), a tasa fija 262 Capítulo 10 Ingeniería económica o variable, con amortización del capital al vencimiento. Un bono cupón cero (bono sin cupones) paga los intereses al vencimiento del bono. Normalmente la garantía de los bonos es la propia empresa emisora, por lo que pagan intereses relativamente altos. Asimismo, para ayudar a la credibilidad de la empresa emisora, comúnmente las emisiones son evaluadas por las empresas calificadoras de riesgo mencionadas en la sección 10.1 de este capítulo. Existen programas promovidos por las propias bolsas de valores para que los instrumentos emitidos por diferentes empresas tengan las mismas características en cuanto al plazo, pago y tipo de intereses, y otras características que facilitan su aprobación por las autoridades reguladoras del mercado y la operación de los instrumentos en el mercado secundario. Bonos redimibles. El emisor de estos bonos se reserva la facultad de pagar, total o parcialmente, el principal de la emisión, cuando más le convenga, dentro del plazo de la emisión, que es relativamente largo. Este tipo de instrumento es muy popular en mercados desarrollados y se utiliza cuando existe una gran volatilidad en las tasas de interés y en los tipos de cambio. Bonos con garantía. Este es un tipo de bono en el cual existen garantías específicas para el pago de los bonos, como pueden ser garantías hipotecarias, de cuentas por cobrar u otras. Estas garantías normalmente quedan depositadas en un fideicomiso establecido ex profeso. Este financiamiento es usado por empresas con menor calidad crediticia. Bonos convertibles. En este tipo de bonos la amortización final del principal es en acciones de la propia empresa emisora de los bonos. Si una empresa conf ía que su valor crecerá en el plazo de la emisión, puede emitir un bono convertible pagando intereses relativamente menores que otros bonos no convertibles. Existen variaciones sobre este instrumento, cuya presentación está fuera del objetivo de este capítulo. Acciones. Este es un instrumento de financiamiento que no tiene plazo ni tasa y cuya garantía es la parte de capital de la empresa que representa las acciones emitidas. Un tenedor de una acción tiene derecho a recibir dividendos si la empresa emisora decide repartirlos. Hay que distinguir entre la emisión original de acciones, llamada colocación primaria, y las operaciones de compraventa de las acciones ya emitidas en el mercado secundario, ya que es en la primera en donde la empresa obtiene fondos para sus proyectos. La determinación del valor de las acciones en una colocación primaria es sumamente compleja y depende de muchos factores, cuya presentación está fuera de los alcances de este capítulo. Acciones preferentes. Las acciones preferentes son acciones que pagan un dividendo preestablecido, por lo que su comportamiento se asemeja al de un bono de largo vencimiento. Financiamiento privado: en vez de acudir a las instituciones bancarias o a los mercados públicos de valores, una empresa puede financiarse mediante la colocación privada de deuda o de capital. Aunque el financiamiento 10.4 Estudio de caso 263 privado requiere cubrir una menor cantidad de requisitos y trámites que el financiamiento público, normalmente es más caro financieramente. El financiamiento privado es comúnmente usado por empresas que desean mantener un alto grado de confidencialidad en sus operaciones, o por empresas de creación reciente que no tienen acceso al crédito bancario ni al mercado de valores. Para el caso de financiamiento vía capital, existen empresas especializadas en proveer de capital a empresas nuevas por un tiempo limitado bajo condiciones bastante estrictas de recuperación del capital invertido. A estas compañías se les conoce como empresas de capital de riesgo, y son muy comunes en países con mercados de capital relativamente desarrollados y en donde una innovación tecnológica es realizada por una empresa de reciente creación. Asimismo, en muchas ocasiones son los propios directivos de una empresa los que acuerdan qué parte de su ingreso salarial se quede en la empresa en forma de cuentas por pagar que pueden convertirse en acciones. 10.4 Estudio de caso Los conceptos presentados en este capítulo se ilustran a través de un estudio de caso: la valoración de una panadería localizada en Zumpango, Estado de México. El estudio presentado en esta sección se basa principalmente en el trabajo de investigación reportado por Roberto Apáez en 2012, con ciertos ajustes para fines didácticos. Estudio de caso: panadería El Fortín Algunos supuestos y antecedentes Con el presente estudio de caso se pretende explicar, de manera práctica, la teoría financiera detrás de las medidas de rentabilidad descritas en las secciones anteriores. De la misma forma, mediante el caso se explican alternativas de fuentes de financiamiento para un proyecto real. La panadería que se utiliza como ejemplo se llama El Fortín y se ubica en Zumpango, Estado de México, dentro de un desarrollo habitacional proyectado para tener 9500 casas. La información histórica de El Fortín que se utiliza comprende desde la fecha de inicio de operaciones, julio de 2007, hasta junio de 2011, con lo cual se tiene información de 48 meses de operaciones y datos reales que se pueden utilizar para la valuación por realizar. Medidas de rentabilidad: ¿Se tiene un negocio rentable? Se cuenta con $100 para invertir en un proyecto. Se sabe que la tasa de interés real que se puede obtener en el banco es de 3% anual, con una inflación del 3.5% anual. Coincidentemente, la inversión necesaria para iniciar operaciones en El Fortín es de $100, y se espera recibir flujos netos anuales de $6. Considerando lo anterior, ¿es recomendable invertir en El Fortín? 264 Capítulo 10 Ingeniería económica Se debe determinar primero la tasa de rendimiento de El Fortín. Si se esperan flujos anuales netos de $6 y se tiene una inversión de $100, se puede calcular una tasa de rendimiento anual de 6%. Parece ser que dicha inversión sería más rentable que depositar el dinero en el banco. Sin embargo, para poder comparar dicha tasa de rendimiento con la tasa de interés del banco, hay que poner ambas tasas en términos comparables. La tasa de interés del 3% anual del banco es una tasa real, mientras que la tasa de rendimiento del 6% anual de El Fortín es una tasa nominal, que no ha sido ajustada por la inflación, por lo cual no son comparables. Usando la fórmula de la sección 10.1, se puede calcular la tasa de rendimiento real de El Fortín, que sería igual a (1 0.06)/(1 0.035) 1 2.42%, con lo cual se puede concluir que El Fortín no es tan rentable como podría parecer inicialmente. Con la información histórica que se tiene, se pueden observar varios aspectos: 1. los flujos anuales netos de El Fortín son variables e incrementales; 2. la inversión necesaria para operar El Fortín no sólo corresponde a la inversión inicial, sino que requiere de inversión adicional en el tiempo, y 3. El Fortín parece ser mucho más rentable que el 2.42% real del ejemplo anterior. La inversión inicial en El Fortín fue de $4 500 000 y se han hecho contribuciones de capital adicionales por un total de $725 000. En el periodo comprendido entre julio de 2007 y junio de 2008 (12 meses), se tuvo un flujo neto negativo, con una pérdida de $328 000. Considerando como inversión total la suma de $4 500 000 y $725 000 se tiene una inversión de $5 225 000 y un flujo negativo anual de $328 000 para el primer año, lo cual resulta en una tasa de rentabilidad negativa de 6.28% nominal. En el periodo comprendido entre julio de 2008 y junio de 2009 se tuvo un flujo positivo neto de $125 000, lo cual resulta en una tasa de rendimiento nominal de 2.39%. Considerando una inflación para ese periodo de 3.5%, se tiene entonces una tasa de rendimiento real negativa de 1.07%. Aun teniendo una utilidad de $125 000 se tiene un rendimiento real negativo. Para el tercer año de operación se tiene una utilidad de $843 000, que resulta en una tasa de rendimiento anual nominal de 16.13% y una tasa de rendimiento anual real de 12.20%. Para el cuarto año de operación se tiene una utilidad de $1 134 000, que resulta en una tasa de rendimiento anual nominal de 21.70% y una tasa de rendimiento anual real de 17.58%. Con lo anterior, podría entonces concluirse que El Fortín es un negocio rentable, pero, ¿lo es realmente? La decisión no es tan simple y no debe basarse solamente en una tasa de rendimiento. No es lo mismo un negocio que resulta en una tasa de rendimiento anual real de 20% en el primer año, que uno que resulta en una tasa de rendimiento anual real de 20% en el décimo año. El tiempo importa, y para incorporar el tiempo en análisis de rentabilidad existen otras herramientas, como el VPN o la TIR, que se describieron en las secciones anteriores. 265 10.4 Estudio de caso Considerando los flujos históricos de El Fortín, y asumiendo que la inversión de $725 000 se hace en el segundo año, se puede entonces calcular un VPN y una TIR con los siguientes flujos, utilizando distintas tasas de descuento para el VPN: Año 1 Inversión Utilidad Flujo Año 2 Año 3 Año 4 4 500 000 725 000 328 000 125 000 843 000 1 134 000 ⴚ4 828 000 ⴚ600 000 843 000 1 134 000 Tasa de descuentos VPN 50.00% $12 832 000 33.35% $0 5.00% $3 371 437 10.00% $3 477 063 20.00% $3 405 278 – – Se puede entonces observar que la tasa de descuento que hace que el VPN sea igual a cero es 33.35%, lo cual parece significar que la TIR del proyecto es 33.35%, que intuitivamente sugiere que el proyecto no es rentable, aun cuando se había determinado previamente que sí parecía serlo. Evidentemente, el análisis anterior tiene deficiencias y es relevante entenderlas. Es común que un proyecto operativo como una panadería requiera de un periodo mayor a cuatro años para poder ser valuado adecuadamente. Si bien existen proyectos cuya duración está determinada y pueden ser cuatro años o menos, generalmente en esos casos existiría una venta del proyecto a un tercero, y dicho valor de venta debería ser considerado en los flujos por ser descontados para poder calcular un VPN o una TIR correctos del negocio. Sin embargo, en la mayoría de casos un proyecto operativo se quiere evaluar a “largo” plazo, ya sea porque no se sabe cuál sería el valor de venta en un año determinado, o bien porque no se quiere vender el negocio en el corto plazo. Dependiendo de la tasa de descuento que se use, los flujos lejanos en el tiempo tendrán mayor o menor impacto en el cálculo del VPN, pero como regla general, con una tasa de descuento positiva, los flujos lejanos tendrán un impacto menor en el cálculo del VPN, pues están siendo descontados por más periodos, y en esa medida, no será razonable descontar flujos de 50 o 100 años en el futuro, pero quizá 10 o 20 años sí sea un periodo razonable, dependiendo del negocio en cuestión. Consideremos entonces 10 años para calcular el VPN de El Fortín, así como su TIR. Pero surge un problema, no se tienen 10 años de información histórica. Éste es el problema más común al querer valuar un negocio o 266 Capítulo 10 Ingeniería económica proyecto: no se tienen flujos para valuar, pues el negocio es un plan, no una realidad, y se tienen que proyectar dichos flujos, para lo cual generalmente resulta útil modelar el proyecto en alguna hoja de cálculo, como lo puede ser Excel. Existen dos métodos generales para proyectar flujos:2 subjetivos y objetivos. Un método subjetivo se basa en el juicio humano y uno objetivo se basa en el análisis de datos. Ahora bien, el problema para valuar 10 años de El Fortín persiste y se resuelve de la siguiente manera. Se utilizará un formato similar a un estado de resultados, pero con flujos financieros. Para esto, se requiere contar de forma anual con: 1. las ventas, 2. los costos de ventas, 3. los gastos de producción (sueldos del área de producción, los impuestos y las contribuciones correspondientes, costos asociados a producción por conceptos de electricidad, agua y luz, y el mantenimiento de la maquinaria de producción), 4. los gastos de venta (sueldos del área de ventas, los impuestos y las contribuciones correspondientes, y otros gastos asociados) y 5. los gastos administrativos (sueldos del área administrativa, los impuestos y las contribuciones correspondientes, teléfono, papelería, costos asociados a equipo de cómputo, etc.), con todo lo anterior se puede obtener de manera anual un flujo neto antes de impuestos, lo que será la información de entrada para la valuación3 con VPN. Utilizando ciertos supuestos, se generan entonces los siguientes flujos anuales y sus correspondientes VPN’s, en función de diversas tasas de descuento: Año 1 Inversión Utilidad Flujo Año 2 4 500 000 725 000 328 000 Año 3 Año 4 Año 5 Año 6 Año 7 Año 8 Año 9 Año 10 – – – – – – – – 125 000 843 000 1 134 000 1 425 000 1 716 000 2 007 000 2 298 000 2 589 000 2 880 000 ⴚ4 828 000 ⴚ600 000 843 000 1 134 000 1 425 000 1 716 000 2 007 000 2 298 000 2 589 000 2 880 000 Tasa de descuentos VPN 10.00% $2 686 683 15.00% $954 632 18.99% $0 25.00% $970 348 30.00% $1 494 207 2 Para ver más información sobre proyección de flujos, consulte Nahmias, S. (2001). Production and Operations Analysis, 4a. Ed., McGraw-Hill/Irwin, Nueva York. 3 Para mayor detalle sobre valuación financiera utilizando VPN, VPNE u opciones reales, puede consultarse Apáez, R. (2012). Comparación de métodos de valuación financiera: flujos descontados y opciones reales. ITAM, Ciudad de México. 10.4 Estudio de caso 267 Se puede ahora observar que la tasa interna de retorno de El Fortín es 18.99% y que el proyecto parece ser rentable de nuevo. El tiempo importa, tanto el tiempo en el que se dan los flujos, como el tiempo de valuación que se considera. Fuentes de financiamiento: ¿Cómo fondear el proyecto? Ahora bien, en cuanto a alternativas de fuentes de financiamiento para El Fortín se refiere, este proyecto inicialmente se fondeó haciendo uso de capital propio y de un préstamo otorgado por una institución financiera. Posteriormente, ya en la operación, el proyecto también ha hecho uso de financiamientos con proveedores y de arrendamientos financieros. Por un lado, los proveedores han otorgado a El Fortín entre 30 y 60 días para liquidar el costo de las materias primas, periodo durante el cual se procesa la materia prima, se hace pan, se vende, se cobra al momento de la venta, y con dicha cobranza se paga la materia prima. Por otro lado, El Fortín tiene expendios y clientes a quienes tiene que llevar el pan a domicilio, para lo cual requiere de dos vehículos. En vez de comprar de contado esos vehículos con capital propio, se hizo uso de esquemas de arrendamientos financieros para obtener los vehículos sin desembolsar el 100% de su valor en el día 1. En la evaluación de la rentabilidad de un proyecto, tomar en cuenta los posibles financiamientos a los cuales se puede tener acceso es importante, pues la rentabilidad de un proyecto varía en función de los financiamientos que pueda tener de manera relevante. Regresando al ejemplo numérico de El Fortín, si se considera ahora que $2 000 000 de la inversión inicial en realidad fueron obtenidos con financiamiento y que $500 000 de la inversión realizada en el segundo año en realidad fueron cubiertos mediante un arrendamiento financiero, se puede ver que tanto el VPN como la TIR del proyecto cambian. Para fines del ejercicio, consideremos que la tasa de interés anual del préstamo de $2 000 000 es de 10% anual nominal sobre saldos insolutos, y que el principal (los $2 000 000) se amortizan en un periodo de ocho años de manera lineal, con lo cual, cada año El Fortín tiene que pagar al banco $250 000 de principal, más los intereses sobre los saldos insolutos. Igualmente, para fines del arrendamiento fi nanciero, asumamos que el arrendamiento financiero tiene un costo nominal anual de 15% para El Fortín, y que el principal se amortiza en un periodo de cinco años, de tal forma que durante dichos cinco años El Fortín tiene que hacer pagos iguales de $149 158 (el primer año, la mayor parte de ese pago será por intereses y una pequeña parte corresponderá a pagos de principal. Conforme el principal va disminuyendo, los intereses disminuyen y el pago de principal aumenta). Considerando lo anterior, se tienen entonces los siguientes flujos, y sus correspondientes VPN’s y TIR: 268 Capítulo 10 Año 1 Año 2 Año 3 Año 4 Año 5 Año 6 Año 7 Año 8 Año 9 Año 10 – – – – – – – – Inversión 4 500 000 725 000 2 000 000 450 000 425 000 400 000 375 000 350 000 325 000 300 000 275 000 Préstamo Arrendamiento financiero Utilidad Flujo Ingeniería económica – 328 000 5000 000 149 158 149 158 149 158 149 158 149 158 – – – – 125 000 843 000 1 134 000 1 425 000 1 716 000 2 007 000 2 298 000 2 589 000 2 880 000 ⴚ4 828 000 ⴚ600 000 843 000 1 134 000 1 425 000 1 716 000 2 007 000 2 298 000 2 589 000 2 880 000 Tasa de descuentos VPN 10.00% $2 686 683 15.00% $1 209 173 21.97% $0 25.00 $346 539 30.00% $762 631 Se puede entonces observar que la TIR del proyecto ahora es de 21.97%, que es mayor al 18.99% que se tenía sin los financiamientos. Como regla general, si un financiamiento tiene un costo menor a la TIR de un proyecto, al usar ese financiamiento para ese proyecto en particular la rentabilidad del mismo aumentará. Por el contrario, si el costo del financiamiento es mayor a la TIR del proyecto, la rentabilidad de dicho proyecto bajará. Si bien la rentabilidad es importante, no es el único factor que debe considerarse al decidir si usar o no un financiamiento. Como se explica en secciones anteriores, existen diferentes esquemas de financiamiento, con diferentes esquemas de garantías, y consecuentemente diferentes niveles de riesgo asociados. Aun cuando se tenga la alternativa de tomar un financiamiento “barato” que mejore la rentabilidad del proyecto, si la garantía de dicho préstamo es su casa, es posible que decida no arriesgar ese patrimonio, y la seguridad de tener una casa, a pesar de que financieramente hablando el préstamo sea atractivo. Por el contrario, aun cuando un préstamo sea más caro que la rentabilidad del proyecto, se puede tomar la decisión de usar dicho préstamo si es la única forma de llevar a cabo el proyecto, pues aun cuando sea menos rentable el proyecto, puede seguir siendo más rentable que la alternativa de no hacerlo. Anualidades y perpetuidades Otros conceptos financieros útiles para la valuación de un proyecto son las anualidades o las perpetuidades. 269 10.4 Estudio de caso Puede darse el caso en el que se pretenda invertir en un proyecto del cual se espere obtener un ingreso periódico fijo, como puede ser comprar un departamento para rentarlo posteriormente, o bien comprar un bono o certificado federal que pague dividendos periódicos fijos. Proyectos de esta naturaleza pueden ser valuados mediante el concepto de anualidad utilizando la siguiente ecuación: VP(A) A i * c1 1 (1 i)n d Donde VP(A) es el valor presente de la anualidad en cuestión, A el pago periódico que se espera recibir, i la tasa de descuento por periodo y n es el número de periodos durante los cuales se espera recibir dicho pago. De la misma forma, existen diversos proyectos de inversión de los cuales se pueden esperar pagos periódicos pero que tengan una tasa de crecimiento (o decremento) fija por periodo. Es el caso cuando se tiene un edificio que se renta a una empresa a cambio de un pago anual, y que dicho pago se incremente de manera anual por la inflación. Lo mismo podría suceder con el departamento en renta o el bono federal, y para valuar proyectos de esa naturaleza se puede utilizar la siguiente ecuación: VP(A) A ig * c1 a 1+g (1 i) n b d Donde VP(A) es el valor presente de la anualidad en cuestión, A el pago periódico que se espera recibir, i la tasa de descuento por periodo, g la tasa de crecimiento (o decremento, también llamado gradiente) que se espera por periodo y n es el número de periodos durante los cuales se espera recibir el pago. Otra situación puede ser que no exista un periodo determinado o finito durante el cual se espera recibir el pago periódico. Por ejemplo, la inversión en un departamento por rentar que no tenga un horizonte de vida definido o finito, y se quiera valuar esa inversión asumiendo que los pagos se extienden por un tiempo sin definición, se puede valuar como una perpetuidad, utilizando cualquiera de las siguientes ecuaciones, según sea el caso: VP(P) VP(P) A i A ig Donde VP(P) es el valor presente de la perpetuidad en cuestión, A el pago periódico que se espera recibir de manera indefinida, i la tasa de descuento por periodo y g es la tasa de crecimiento (o decremento) que se espera para cada pago sobre el pago anterior. Existen proyectos en los cuales los flujos después de 10 o 20 años siguen siendo significativos, y podría darse el caso en el cual al valuar un 270 Capítulo 10 Ingeniería económica proyecto calculando el VPN de flujos de 10 o 20 años solamente podría resultar en dejar de lado una parte importante del valor del proyecto en cuestión, lo cual podría resultar en una toma de decisiones fundada en información incompleta. No obstante lo anterior, y como se explicó, proyectar flujos futuros puede ser complejo, y mientras más larga sea la proyección, el grado de error de la misma tiende a ser mayor. Sin embargo, algo común en la mayoría de negocios es que las operaciones tiendan a estabilizarse, y después de cierto tiempo los flujos sean hasta cierto punto constantes, con lo cual se puede asumir que se comportan como una anualidad o una perpetuidad. Regresando al ejemplo de la panadería, podría entonces asumirse que a partir del año 10 y en adelante los flujos anuales se comportarán de manera constante, y se deberá valuar el proyecto con una perpetuidad en el año 10. Considerando lo anterior, se tienen entonces los siguientes flujos y sus correspondientes VPN’s y TIR: Año 1 Año 2 Año 3 Año 4 Año 5 Año 6 Año 7 Año 8 Año 9 Año 10 – – – – – – – – Inversión 4 500 000 725 000 2 000 000 450 000 425 000 400 000 375 000 350 000 325 000 300 000 275 000 Préstamo Arrendamiento financiero Utilidad Flujo – 328 000 5000 000 149 158 149 158 149 158 149 158 149 158 125 000 843 000 ⴚ4 828 000 ⴚ550 000 268 842 – – – – 1 134 000 1 425 000 1 716 000 2 007 000 2 298 000 2 589 000 2 880 000 584 842 Tasa de descuentos VPN A 10.00% $13 736 259 $28 800 000 15.00% $5 955 120 $19 200 000 20.00% $2 600 301 $14 400 000 25.00% $890 412 $11 520 000 29.55% $0 $9 745 482 900 842 1 216 842 1 532 842 1 998 000 2 314 000 2 880 000 ⴙA Se puede entonces observar que la TIR del proyecto ahora es de 29.55%, que es considerablemente mayor al 21.97% que se tenía sin tomar en cuenta los flujos posteriores al año 10, con lo cual se puede observar que el VPN anterior dejaba de lado una parte importante del valor del negocio. Ejercicios propuestos 271 Un ejercicio similar sería asumir que la panadería se vende en el año 10, con lo cual en vez de sumar el valor de la perpetuidad a los flujos, se sumaría el valor de venta de la panadería, el cual podría ser calculado mediante una perpetuidad, lo que daría el mismo resultado obtenido, y se entiende entonces la lógica detrás de las perpetuidades o, en su caso, anualidades. Se puede hacer el ejercicio que contemple un incremento anual de los flujos de la panadería por inflación, lo que debería resultar en un valor mayor y una TIR consecuentemente mayor, pero ese ejercicio queda como prueba para el alumno. EJERCICIOS PROPUESTOS 1. En la tabla siguiente se muestran los diferenciales en puntos porcentuales de tasas de interés observados en el mercado entre los UMS (United Mexican States, bonos emitidos por México en los mercados internacionales y denominados en dólares de Estados Unidos) y bonos del tesoro del país en los meses de mayo a julio de 2005. Se muestran los diferenciales para bonos emitidos a 3, 5 y 10 años. 2005 3 años 5 años 10 años 4 de mayo 0.95% 1.28% 1.55% 18 de mayo 0.80% 1.13% 1.50% 1 de junio 0.80% 1.10% 1.40% 15 de junio 0.82% 1.20% 1.40% 29 de junio 0.70% 1.05% 1.40% 13 de julio 0.60% 0.95% 1.28% 27 de julio 0.40% 0.99% 1.30% a) Grafique los datos anteriores usando el eje de las abscisas para el tiempo y el de las ordenadas para los diferenciales de tasas de interés (una serie de datos para cada plazo). b) ¿Qué conclusiones podría obtener en cuanto a los diferenciales para cada plazo? c) ¿Qué podría explicar la caída de los diferenciales en todos los plazos? 2. En el cuadro siguiente se muestran las tasas de dos instrumentos fi nancieros emitidos por el Gobierno Federal y subastados por el Banco de México en los meses de marzo a junio de 2005. El primero es un bono a 10 años y el segundo es un udibono al mismo plazo. El udibono paga tasa real, esto es, paga rendimientos sobre las llamadas unidades de inversión, las cuales están indexadas a la inflación. 272 Capítulo 10 Emisión Ingeniería económica Bono 10 años Udibono 10 años Marzo de 2005 10.47% 5.99% Abril de 2005 10.41% 5.67% Mayo de 2005 9.84% 5.16% Junio de 2005 9.56% 4.89% Julio de 2005 9.37% 4.90% Inflación implícita Complete la columna de la inflación implícita, esto es, la tasa de inflación que haría que los rendimientos de ambos instrumentos fueran equivalentes. 3. Un ingeniero industrial está planeando desarrollar un proyecto de aguas residuales en su planta del estado de Querétaro. El costo del proyecto se estima en tres millones de pesos, de los cuales el industrial tiene fondos suficientes para cubrir la mitad de ellos. El industrial se acerca al banco estatal Banobras y le pide un préstamo de 1.5 millones de pesos, a un año, a una tasa preferencial. La institución de desarrollo le ofrece fondos al 7.5% anual que ha obtenido del Banco Mundial para proyectos de saneamiento de aguas. ¿Qué subsidios estaría recibiendo el industrial si se sabe que el gobierno de México se fondea a un año a 9.5% y los bancos comerciales prestan al 12.5%? Referencias Apáez Flores, R. (2012). Comparación de métodos de valuación financiera: flujos descontados y opciones reales. Tesina de Ingeniería Industrial, ITAM. Copeland T., Koller, T. y Murrin, J. (1990). Valuation: Measuring and Managing the Value of Companies. McKinsey & Company, Inc. Dumas, B. y Allaz, B. (1996). Financial Securities: Market Equilibrium & Pricing Methods. South-Western College Publishing, Cincinnati, Ohio, Chapman & Hill. Jarrow, R. y Turnbull, S. (1996). Derivative Securities. South-Western College Publishing, Cincinnati, Ohio, ITP. Nahmias, S. (2001). Production and Operations Analysis, 4a. Ed. McGraw-Hill/Irwin, Nueva York. Schwartz, E. S. (2001). Patents and R&D as Real Options. Anderson School of Business, UCLA, Los Angeles, CA. CAPÍTULO 11 Administración de proyectos AUTORES: Dr. Omar Romero Hernández Dr. Guillermo Abdel Musik Asali 11.1 Introducción 11.2 El proyecto 11.3 Planeación de proyectos 11.4 Programación de proyectos con tiempos de actividades conocidos 11.5 Programación de proyectos con tiempos de actividades inciertos 11.6 Consideraciones de costos 11.1 Introducción La ingeniería industrial, en su interés por facilitar la creación eficiente y a gran escala de productos y servicios, hace del desarrollo de procesos su principal foco de atención. En sus orígenes, la ingeniería industrial se concentraba principalmente en lograr la estabilidad y máxima eficiencia posible en los procesos de manufactura. En la actualidad, cada vez más los ingenieros industriales se contratan también en empresas de servicios, en sectores tan diversos como el financiero, el de transporte o el de gobierno, donde aplican sus conocimientos de procesos de manufactura para mejorar la generación de servicios. La labor del ingeniero no termina con el diseño y la instalación del proceso, el cual, una vez en su lugar, la ingeniería trata de optimizar su operación, buscando lograr una mejora continua por medio del aprendizaje. En contraste con estas labores repetitivas, existen productos o servicios que se van a realizar solamente una vez. Este tipo de trabajos son los que se presentan en industrias tales como la construcción, el software o la consultoría, donde cada cliente requiere de un producto o servicio con características únicas. En estos casos, en lugar de procesos el trabajo tiende a organizarse en forma de proyectos. 274 Capítulo 11 Administración de proyectos Si los procesos son el enfoque básico de la ingeniería industrial, ¿por qué entonces es importante conocer de proyectos? A pesar de que las operaciones diarias de las empresas de manufactura se centran en procesos, un poco de análisis nos muestra que los proyectos se presentan cada vez con mayor frecuencia. Si se decide hacer un cambio importante, como la expansión de una línea productiva, lo mejor sería utilizar las técnicas de administración de proyectos. El remplazo de un equipo, el lanzamiento de un nuevo producto o el rediseño de un proceso son ejemplos de trabajos que se realizan una vez para un producto determinado y que podemos denominar proyectos. Podemos ver que el elemento común de todos estos ejemplos es la necesidad de realizar un cambio en la empresa. Así como el análisis de procesos nos da herramientas para lograr la eficiencia y la estabilidad, la administración de proyectos nos proporciona herramientas para lograr el cambio. La relación entre estabilidad y cambio crea una interdependencia entre procesos y proyectos: una línea productiva genera la necesidad de proyectos para realizar cambios; una vez que esos cambios han sido realizados, se diseñan procesos nuevos para garantizar la continuidad en la operación (figura 11.1). La mayoría de empresas ha realizado proyectos. Sin embargo, a pesar de su creciente presencia, es común que éstos se realicen arriba de su presupuesto y después del plazo originalmente planeado. En la mayoría de casos estas desviaciones en costo y tiempo son consecuencia de mala planeación, ejecución y control del proyecto. El hecho de que cada proyecto sea único, no quiere decir que no existan técnicas que nos ayuden a planearlos y controlarlos. En los últimos 50 años se han desarrollado técnicas para realizar proyectos de manera efectiva y eficiente, independientemente de si se trata de un proyecto de software, rediseño o construcción. Estas técnicas se han concentrado en la disciplina administración de proyectos. Este capítulo presenta algunos elementos de la administración de proyectos, enfatizando las características básicas de un proyecto y los aspectos que se deben considerar al realizar un plan. cia miento y eficie cala n Es Proyectos ra s Procesos FIGURA 11.1 Relación entre procesos y proyectos Ne c e sid e ad es d me jo 11.2 El proyecto 275 11.2 El proyecto Es indispensable tener claro el concepto de proyecto. Diversos libros utilizan diferentes definiciones para un proyecto; tomando los principales elementos de estas definiciones, podemos decir que: Un proyecto es una serie de actividades ordenadas encaminadas a lograr un objetivo con ciertas especificaciones, en un tiempo dado y con unos recursos determinados. Vale la pena resaltar cuatro aspectos importantes de esta definición: • • • • El proyecto existe para el logro de un objetivo que algún individuo y organización quiere alcanzar; es decir, la razón de ser del proyecto es alcanzar dicho objetivo. El objetivo se va a alcanzar por medio de una serie de actividades ordenadas, que deben ser definidas en un proceso de planeación. La definición contiene implícitamente una de las principales características de un proyecto: que tiene un principio y un fin. El principio es cuando se realizan las primeras actividades, y el fin es cuando se logra el objetivo. Por último, se requiere de recursos y tiempo para el logro del objetivo con las especificaciones deseadas. A continuación se presentan algunos conceptos que nos ayudan a comprender los diferentes aspectos que deben manejarse en la realización del proyecto. 11.2.1 Cubo del proyecto Cuando hablamos de administración de proyectos, estamos en realidad hablando del manejo de las diferentes dimensiones relevantes para el logro del objetivo. Las tres principales dimensiones que se deben considerar son: tiempo, costo y desempeño. Al principio de un proyecto se deben definir los niveles que se quieren lograr en cada una de estas tres dimensiones. El nivel de tiempo se conoce como programa, e indica la duración máxima que debe tener el proyecto. El nivel definido para los costos se llama presupuesto, y representa el máximo de recursos que pueden ser gastados. El nivel de desempeño es conocido como las especificaciones del proyecto. Un esquema clásico para representar estos factores es el cubo del proyecto (figura 11.2). Esta representación consiste en una gráfica tridimensional (x, y, z), donde cada eje representa uno de los tres factores (tiempo, costo y desempeño). A cada uno de los ejes le asignamos un nivel constante que deseamos lograr (programa, presupuesto y especificaciones), y a partir de ese punto generamos un plano paralelo a los ejes. Estos tres planos nos definen un cubo con respecto al origen. Cualquier punto dentro de este cubo va a cumplir con los tres requisitos deseados. 276 Capítulo 11 Administración de proyectos Desempeño Especificaciones Programa FIGURA 11.2 El cubo del proyecto Tiempo Presupuesto Costo Estas tres dimensiones (tiempo, costo y desempeño) tienen una relación interesante entre sí. Por un lado, cada una se debe planear y controlar de forma independiente, siempre prestando atención al desempeño de la variable individual. Por otro lado, es importante reconocer que las dimensiones están íntimamente relacionadas, y que los cambios en una de las dimensiones repercutirá en al menos una de las otras. Por ejemplo, en un proyecto bien planeado, una reducción en presupuesto necesariamente tendrá un impacto en un aumento en el tiempo de ejecución, en una disminución en las especificaciones o en ambos. Es necesario saber cuál es la prioridad de las dimensiones que se quieren manejar, entendiendo cuáles son las consecuencias de no cumplir con cualquiera de las tres dimensiones, para definir cuáles son prioritarias. De aquí se puede deducir que para diferentes proyectos van a existir diferentes dimensiones críticas y la prioridad dependerá del tipo de proyecto. A continuación se presentan ejemplos que muestran la dimensión crítica. El desarrollo de un nuevo avión de pasajeros es un caso donde la dimensión crítica son las especificaciones. El desarrollo podría tardarse seis meses más de lo planeado en salir al mercado, o pudiera ser que se eleven los costos para poder alcanzar la calidad requerida, pero si se introduce al mercado un avión con algún problema, va a ser mucho más grave. Un caso donde los costos son un factor crítico sería la expansión de una planta, en donde la rentabilidad será el resultado de ajustarse a los costos. Para un producto estacional o de moda, como juguetes o productos promocionales para una película, el tiempo es el factor más importante, pues tenerlos en costo y desempeño una semana tarde puede significar la diferencia entre ganar o perder dinero. 277 11.2 El proyecto Costo Curva con todas las combinaciones posibles para un nivel de especificaciones P1 P2 FIGURA 11.3 Diferentes alternativas de tiempo y costo T1 T2 Tiempo Podemos observar que para todos los ejemplos anteriores las tres dimensiones son importantes. Sin embargo, definir cuál es la dimensión crítica permitirá tomar mejores decisiones durante la planeación y ejecución. La figura 11.3 ilustra una forma de pensar estas interrelaciones. Suponiendo un caso en el que las especificaciones fueran la dimensión crítica, podemos pensar en una variedad de combinaciones de tiempo y costo para alcanzar dichas especificaciones. La curva representa todas las diferentes combinaciones de tiempo y costo posibles. Si la empresa asignara un presupuesto de P1 pesos, el proyecto se podría realizar en un tiempo T1. Sin embargo, si la empresa decidiera reducir dicho presupuesto a P2, el tiempo de realización aumentaría a T2, esto suponiendo que el nivel de especificaciones es fijo. En este caso el administrador de proyecto tendrá que definir la combinación de tiempo y costo con la que desea realizar el proyecto. 11.2.2 Ciclo de vida Como observamos en la definición del proyecto, una característica implícita en la definición de un proyecto es que tiene un principio y un fin, por lo que podemos decir que tiene un ciclo de vida, ya que nace cuando comienza, se desarrolla y muere cuando termina. A lo largo del ciclo de vida podemos encontrar seis diferentes etapas: 1. Concepción: es la primera etapa donde se defi ne la necesidad de lograr un objetivo, y por lo tanto la necesidad de planear y realizar un proyecto. 2. Planeación: es la etapa en que se detalla la forma como se deberá ejecutar el proyecto. 3. Evaluación: es la función que se encarga de decidir si el proyecto es viable o no, según lo que se quiera lograr. Por ejemplo, en una empresa privada la mayoría de los proyectos tendrán por objetivo ob- 278 Capítulo 11 Administración de proyectos tener utilidades adicionales y, por lo tanto, la evaluación relevante será una evaluación financiera. 4. Ejecución: es la etapa donde se llevan a cabo las actividades que nos ayudarán a lograr el objetivo deseado. 5. Control: es la etapa en que se verifica que las actividades se vayan realizando en el tiempo, costo y desempeño definidos en la etapa de planeación, y busca minimizar variaciones con respecto a lo planeado. También se encarga de ajustar el rumbo en caso de que existan variaciones. 6. Terminación: es la última etapa, la cual se presenta cuando las actividades planeadas se han llevado a cabo y (deseablemente) se ha alcanzado el objetivo planteado al principio del proyecto. En un proyecto bien planeado y ejecutado los recursos que se han asignado a su realización deben ser retirados gradualmente durante esta etapa. La figura 11.4 representa el ciclo de vida de un proyecto, en el eje horizontal se encuentra el tiempo y en el eje vertical la cantidad de recursos que se están utilizando en el proyecto. Esta gráfica muestra cómo el proyecto empieza con muy pocos recursos que, a medida que se va desarrollando el plan, van aumentando gradualmente. En algún punto se llega a realizar el esfuerzo máximo, con el mayor número de recursos comprometidos. A partir de ese momento se van reduciendo gradualmente los recursos utilizados hasta llegar a cerrar el proyecto. Como podemos observar en la gráfica, las etapas de planeación y evaluación, así como las de ejecución y conNivel de esfuerzo Punto de esfuerzo máximo Tiempo Concepción Planeación y evaluación FIGURA 11.4 Ciclo de vida de un proyecto Ejecución y control Terminación 279 11.2 El proyecto trol, tienden a llevarse a cabo simultáneamente, por la alta interrelación entre ellas. Una gráfica muy relacionada con el ciclo de vida del proyecto es la gráfica del trabajo acumulado, que muestra la cantidad de trabajo que se ha realizado en un proyecto hasta un momento determinado. En lenguaje matemático, la gráfica de trabajo acumulado es la integral del ciclo de vida del proyecto. Al realizarse un proyecto se debe considerar el trabajo acumulado para poder medir el porcentaje de avance. En la figura 11.5 podemos observar cómo se va acumulando el trabajo. En las etapas de concepción y planeación el trabajo se va acumulando lentamente. En la medida que se va involucrando más esfuerzo, el trabajo se va acumulando rápidamente. En la etapa final se reduce la velocidad con la que se va acumulando el trabajo. El punto de máximo esfuerzo del ciclo de vida sería el punto de máxima pendiente en la gráfica del trabajo acumulado. En la figura 11.5 podemos observar también una curva que se comporta de forma aproximadamente inversa a la del trabajo acumulado. La curva de influencia muestra la capacidad que tiene el administrador para influir en la forma en que se lleva a cabo el proyecto. Al comienzo de un proyecto, en su concepción y planeación se tiene un 100% de control sobre los recursos que se van a comprometer, la forma en que se van a hacer las cosas, el equipo que se puede incorporar al proyecto, qué tipo de tecnologías se van a involucrar y la forma en que se va a organizar el trabajo. Es decir, al principio del proyecto se tiene una gran capacidad para influir en la forma en que se va a realizar. Conforme va avanzando el proyecto, se realizan actividades, se involucra a personas y recursos que van reduciendo la capacidad de realizar cambios. Después de cierto grado de avance (típicamente en el punto de mayor esfuerzo), la capacidad de realizar cambios se vuelve mínima. 100% Trabajo acumulado Curva de influencia 0 FIGURA 11.5 Trabajo acumulado y curva de influencia Tiempo 280 Capítulo 11 Administración de proyectos La consecuencia básica de la curva de influencia es la necesidad de planear detalladamente al principio de los proyectos, cuando todavía existe la posibilidad de influir plenamente en los diferentes aspectos. 11.3 Planeación de proyectos La presente sección tiene por objetivo describir las funciones y los principales elementos que debe contener un plan, primero se debe entender lo que es la teoría de planeación, que es el punto en el que se debe situar cualquiera que quiera emprender un proyecto. Posteriormente hay que analizar cada uno de los elementos del plan, para profundizar con más detalle en el proyecto. El resto de este capítulo se concentrará en describir los elementos que debe contener el plan integral de un proyecto. Si bien todas las etapas del proyecto (concepción, planeación, evaluación, ejecución, control y terminación) son importantes para el éxito del mismo, el plan nos permite conocer todos los aspectos que se deben considerar. 11.3.1 El plan del proyecto El plan es un documento que establece el objetivo y la forma en que se va a realizar el proyecto. Es fundamental que el plan sea un documento escrito que todas las personas que participan en el proyecto deben conocer, esto permite que todos los involucrados entiendan el objetivo hacia el que están trabajando y el papel que están jugando dentro del equipo. Existen dos maneras de hacer un plan de acuerdo a como fluye la información, éstas son: top-down y bottom-up. En el caso del top-down los directivos de la empresa definen los principales aspectos del proyecto y los comunican a los subordinados que se encargarán de la ejecución. En el bottom-up los subordinados realizan tanto la labor de planeación como de ejecución, y los directivos tienen únicamente una función mínima de coordinación. Lo óptimo es elaborar un plan haciendo una combinación de ambas, para que así exista una retroalimentación de información entre los diferentes niveles de la organización. Además, esto permite que todas las personas relacionadas con el proyecto enriquezcan el plan. El plan terminado tiene cuatro funciones: • • Comunicación: el plan es un instrumento de comunicación en la medida que se le dé amplia difusión entre los participantes. Esto permitirá unificar criterios y aumentará el compromiso que se tiene con el proyecto. Control: es necesario tener un parámetro para saber el avance que se debería tener en un momento dado, es decir, saber si el avance es el deseado. El plan proporciona este parámetro al dar condiciones de avances de trabajo y costo a lo largo del tiempo. 11.3 Planeación de proyectos • • 281 Coordinación: al tener una serie de recursos es necesario saber cuáles se están utilizando, en qué momento y en qué grado. Estos recursos humanos, materiales, tecnológicos y financieros tendrán que estar en constante interacción a lo largo del proyecto. El plan proporciona una guía para las interacciones de los diversos recursos en las diferentes tareas. Prevención: cualquier proyecto está sujeto a contingencias, y una de las funciones del plan es tratar de anticiparse a los problemas que se puedan presentar, a fin de minimizar desviaciones en lo planeado. Realizar un análisis de riesgo dentro del plan permite prevenir y protegerse, en la medida de lo posible, ante cuestiones adversas que pudieran afectar al proyecto que se esté realizando. Según se observó en la curva de influencia, el plan debe realizarse en las primeras etapas del proyecto. Esto puede parecer problemático, pues con frecuencia muchos detalles de la información se van presentando una vez comenzado el proyecto. A pesar de esta incertidumbre, el plan debe anticiparse en la medida de lo posible a los factores que pudieran afectar el proyecto. Si bien no existe el plan perfecto, invertir tiempo y dinero en realizar un plan detallado aumentará la posibilidad de éxito del proyecto. 11.3.2 Elementos de un plan Los elementos básicos que debe contener un plan y que reflejan los diferentes aspectos que se deben administrar en un proyecto son: • • • • • • • • Objetivo. Estructura del trabajo o WBS (work breakdown structure). Programa de actividades. Organización del equipo de proyecto. Gráfica lineal de responsabilidades. Normas. Presupuesto. Análisis del riesgo. A continuación se describe cada uno de estos elementos. Objetivo: el objetivo es una meta, tarea o actividad a ser lograda en cierto tiempo. Como se mencionó en la sección anterior, el objetivo es la razón de ser del proyecto, por lo que todas las actividades y planes deben estar enfocadas a lograrlo. Éste tiene que estar perfectamente bien definido y todas las personas involucradas deben tener un entendimiento similar sobre lo que se quiere lograr con el proyecto. Los objetivos de un proyecto pueden dividirse en generales y específicos. El objetivo general describe lo que se quiere hacer en un proyecto, y 282 Capítulo 11 Administración de proyectos debe ser único. Los objetivos específicos aterrizan en términos concretos y medibles lo que se quiere lograr en el objetivo general. Los objetivos específicos no son independientes: todos están correlacionados, implícita y explícitamente, en su forma de contribuir a lograr el objetivo general. Por ejemplo, un proyecto de mejora de calidad puede tener como objetivo general mejorar la calidad de una línea de ensamble. Por su parte, los objetivos específicos podrían incluir: poner el proceso dentro de ciertas tolerancias en los siguientes tres meses, capacitar a todas las personas de la línea en técnicas de mejora continua e implantar una serie de controles a lo largo del proceso. En este ejemplo el objetivo general de lograr mejorar la calidad se aterriza en metas específicas y concretas (en cuanto al proceso) en donde se van a dar las especificaciones de lo que se logrará. Según Kerzner (2003), los objetivos del proyecto deben contar con las siguientes características: • • • • • • • Ser específicos. No muy complejos. Medibles, tangibles y verificables. Realistas y alcanzables. Establecidos de acuerdo con los recursos disponibles. Consistentes con los recursos disponibles y anticipados. Consistentes con los planes, políticas y procedimientos organizacionales. Si bien estas características parecieran evidentes, una gran cantidad de proyectos fracasan en la práctica por no cumplir con al menos una de ellas. Estructura del trabajo o WBS: la estructura del trabajo es la estrategia a seguir en la división del trabajo, así como la definición de las principales actividades que deben ser realizadas para cumplir los objetivos. La estructura del trabajo es la parte analítica de la administración de proyectos; parte del principio que es más fácil planear, controlar, presupuestar y asignar el trabajo en tareas pequeñas que en grandes actividades. Con este objetivo en mente, la estructura del trabajo divide un proyecto determinado en diferentes actividades, las cuales son a su vez subdivididas en otras subactividades, hasta llegar a actividades básicas conocidas como tareas. La estructura del trabajo se conoce también como WBS, por ser las siglas de work breakdown structure, el término comúnmente utilizado en inglés. Las divisiones sucesivas del trabajo se conocen como niveles. Así, el proyecto es el nivel 0; las actividades en las que se divide el proyecto son el nivel 1; estas actividades se subdividen en el nivel 2, y así sucesivamente. El número de niveles de un proyecto determinado dependerá de la complejidad del proyecto. Un proyecto para desarrollar un nuevo automóvil o construir una nueva línea del Metro requerirá de una cantidad mayor de niveles que un proyecto para adaptar una pieza en una máquina. 283 11.3 Planeación de proyectos Las tareas resultantes de la división del trabajo deben ser exhaustivas y mutuamente excluyentes. Ser exhaustivas implica que cuando se completan todas las tareas definidas para el proyecto, automáticamente se concluye el proyecto. Igualmente, cuando se concluyen todas las tareas de una actividad se concluye esa actividad. Se entiende por mutuamente excluyentes, a que cada parte del trabajo que se tiene que realizar dentro del proyecto es parte de únicamente una de las tareas definidas. Para cualquier proyecto existen una variedad de maneras de dividir el trabajo, según diferentes enfoques. Por ejemplo, el trabajo de un proyecto de construcción de un edificio de tres pisos puede dividirse de muchas maneras. Una manera de dividirlo sería por actividades: en cimentación, obra negra y acabados. En el momento que se acaben estas actividades, automáticamente se habrá terminado el edificio. Estas actividades se pueden dividir en subactividades, como por ejemplo, los acabados en carpintería, pisos y pintura. Otra manera de dividir el proyecto sería por niveles, donde las actividades en las que se divide el proyecto son planta baja, primer piso y segundo piso. El proyecto puede ser exitoso con cualquier división del trabajo bien hecha (es decir, exhaustiva y mutuamente excluyente). La labor del líder de proyecto será elegir aquella que le facilite la planeación, ejecución y control del proyecto de acuerdo con el entorno. Existen varias maneras de representar la estructura del trabajo. Las más comunes son la gráfica de árbol y el listado con códigos de actividades. En la gráfica de árbol el proyecto se coloca en el nivel superior de la gráfica, y éste se va subdividiendo. La figura 11.6 representa un ejemplo de estructura del trabajo, en donde un proyecto de expansión de una planta se coloca en el nivel 0. En este caso se realizó una división del trabajo de acuerdo con las etapas del proyecto, y en el nivel 1 se tienen cuatro actividades Expansión de una planta Construcción nave Diseño del proceso Nivel 0 Compra de equipo Diseño Licencias Levantar nave Instalaciones FIGURA 11.6 Ejemplo de estructura del trabajo en forma de árbol Arranque de planta Nivel 1 Definir especificaciones Instalación de proceso Licitar y hacer contratos Estabilización Corridas de prueba Nivel 2 284 Capítulo 11 Administración de proyectos principales. El nivel 2 nuevamente divide el trabajo de acuerdo con las etapas de la actividad. Otra manera de representar la estructura de trabajo es mediante una lista en la que se asignan números a cada una de las actividades del proyecto, incluyendo el mismo proyecto (usando una codificación). Para el caso de la expansión de una planta, las actividades se numeran, de acuerdo con la gráfica de árbol, de la siguiente manera: 1.0.0 Expansión de una planta 1.1.0 Construcción nave 1.1.1 Diseño 1.1.2 Licencias 1.1.3 Levantar nave 1.1.4 Instalaciones 1.2.0 Diseño del proceso 1.3.0 Compra de equipo 1.3.1 Definir especificaciones 1.3.2 Elaborar y licitar contratos 1.4.0 Arranque de planta 1.4.1 Instalación de proceso 1.4.2 Corridas de prueba 1.4.3 Estabilización Los diferentes códigos indican las subdivisiones de las diferentes actividades. Esta representación tiene la ventaja de poder presentar las actividades en forma de listado, lo cual permite asociar características a cada una de las actividades, como por ejemplo en un presupuesto. La estructura del trabajo va a ser el prerrequisito del cual van a partir los siguientes elementos del plan. Así, la programación del proyecto se basa en asignar tiempo a las diferentes tareas, el presupuesto les asigna costos y la gráfica lineal de responsabilidades asigna el trabajo al equipo. Programa de actividades: el programa de actividades tiene por objetivo asignar tiempo al proyecto y mostrar cuándo debe comenzar y terminar cada una de las tareas del proyecto. Para poder llegar a este programa se deben combinar dos factores: primero, el orden lógico (o secuenciación) de las actividades y segundo, la duración de cada una de ellas. La secuenciación de actividades va a determinar el orden lógico y las relaciones de precedencia entre las diferentes actividades. Cuando ya se tiene la conceptualización del trabajo, lo que se debe tratar de establecer son las relaciones lógicas. Por relaciones lógicas se entiende las relaciones de precedencia. Es decir, saber qué se debe terminar antes de poder realizar otra de las actividades. En el caso del edificio de tres niveles, sabemos que va a estar compuesto de tres actividades: cimentación, obra negra y acabados. Es necesario realizar la cimentación antes de realizar la obra negra de la planta baja. Para realizar la obra negra del segundo piso se 285 11.3 Planeación de proyectos B A FIGURA 11.7 Diagrama de precedencias C E F D tiene que haber realizado la terminación de la cimentación y la obra negra de planta baja y primer piso. Igualmente, para hacer los acabados del segundo piso tiene que haberse terminado la obra negra del segundo piso y todas las actividades que la anteceden. Es posible que se tengan terminados los acabados en el proyecto sin que éste sea un prerrequisito para la obra. Lo que se tiene que hacer es establecer, para cada una de las actividades a realizar, cuáles son las actividades que deben preceder a otras. Lógicamente, se va a tratar de establecer precedencias inmediatas de una a otra. Es decir, (1) precede a (2) y (2) precede a (3), entonces (1) precederá a (3). Las precedencias se representan por medio de una red de actividades. Generalmente se hace por medio de un diagrama de red donde se conectan círculos (llamados nodos) por medio de flechas (llamados arcos). La figura 11.7 presenta un diagrama de precedencias con actividades en los nodos. Una flecha del nodo A al B significa que la actividad A precede a B. En este caso, A precede a B, C y D; C y D preceden a E, y B y E preceden a F. Una vez que se determinó el orden de precedencia entre las diferentes tareas, se van a asignar tiempos. La duración de la actividad dependerá de los recursos que se le puedan asignar. Por ejemplo, un diseño de producto que realicen dos ingenieros, seguramente tomará menos tiempo que un diseño realizado por un solo ingeniero. Por medio del diagrama de Gantt se representa el programa de actividades, para conocer el momento en que se deben llevar a cabo las actividades, así como su duración. La figura 11.8 presenta un ejemplo de la gráfica de Gantt, en donde el proyecto consiste en el lanzamiento de un producto. En este diagrama todas las actividades tienen asignada una duración y un orden. El largo de la barra en cada renglón representa la duración de esa actividad, mientras que las flechas muestran las precedencias. De acuerdo con la secuencia de las actividades del proyecto, lo primero que se debe conocer es el contenido de la publicidad y el funcionamiento de la campaña de radio, para luego seguir con la campaña de televisión y así sucesivamente hasta el lanzamiento del producto. Como se puede ver, algunas de las actividades se pueden realizar simultáneamente, pero hay otras en donde necesariamente se tiene que ha- 286 Capítulo 11 Administración de proyectos Actividad Contenido de publicidad Campaña de radio Campaña de TV Campaña de prensa Promoción Preparación Presentaciones Planes de venta Estudios de mercado Distribución FIGURA 11.8 Diagrama de Gantt Lanzamiento Tiempo 5 10 15 20 25 30 ber acabado una actividad para comenzar una nueva. El eje horizontal define la dimensión tiempo, en el cual se muestra el grado de avance que debe tener cada actividad en cualquier momento de la vida del proyecto. Para el día 12, por ejemplo, las tareas de contenido de publicidad, campaña de radio y campaña de TV deben estar concluidas, mientras que campaña de prensa, promoción y presentaciones deben tener un avance de entre 30% y 50%. Muchas de las técnicas cuantitativas utilizadas en administración de proyectos están asociadas a las precedencias y la programación. Éstas van desde la ruta crítica y el PERT (Program Evaluation and Review Technique), hasta la simulación Monte Carlo. Estas diferentes técnicas permiten conocer, con diferentes grados de precisión, la duración que tendrá el proyecto y las posibles desviaciones del tiempo estimado. Una vez definidas las actividades y sus duraciones, es conveniente definir hitos dentro del proyecto. Los hitos son logros intermedios en el desarrollo del proyecto que frecuentemente están asociados con los objetivos específicos. En el caso del desarrollo de un nuevo producto, un hito puede ser tener un prototipo funcional. Para un proyecto de calidad, el hito puede ser la conclusión de la capacitación programada. Los hitos son importantes tanto por su posibilidad de ser puntos de control como por su capacidad de mantener el apoyo dentro y fuera del equipo. Organización del equipo de proyecto: la organización del equipo de proyecto es el diseño del número y tipo de posiciones, acorde con tareas definidas para lograr los objetivos. La organización debe hacerse de acuerdo con las habilidades y experiencias necesarias para realizar las diferentes tareas. En la práctica, un buen equipo de proyecto puede ser el factor más importante para el éxito, ya que tendrá la habilidad de realizar el proyecto y manejar las contingencias en el camino. 11.3 Planeación de proyectos 287 Planta de pan Finanzas Producción Mercadotecnia Administración FIGURA 11.9 Organización por función Para poder crear el equipo es muy importante entender el tipo de organización en la que se va a realizar el proyecto, ya que el contexto facilitará o limitará las diferentes acciones. Los tipos más comunes son las organizaciones por función y las organizaciones por proyecto. Un tercer tipo, que es la conjunción de las dos primeras, se denomina organización matricial. Estos tipos se describen a continuación. Las organizaciones por función son aquellas en donde hay diferentes personas especializadas en diferentes funciones. La mayoría de empresas de manufactura y de servicios masivos (bancos, transporte), tendrán una organización funcional. En la figura 11.9 se muestra un ejemplo de planta de pan; en este caso, la estructura de la organización se basará en cuatro funciones, que son producción, mercadotecnia, finanzas y administración (que incluye el área de recursos humanos). El personal de la empresa será asignado a cada una de estas áreas, según sus funciones. La figura 11.10 es un ejemplo de organización por proyecto. Este tipo de organización se presenta en las empresas dedicadas a productos únicos, según las necesidades específicas del cliente, como empresas de consultoría, software, publicidad, ingeniería o de construcción. En este tipo de organización, debajo del director general, estarán los encargados de los proyectos 1, 2, 3 y 4. Cada uno de estos equipos se dedicará a resolver los diferentes aspectos funcionales de un solo proyecto. En algunas empresas, los equipos serán reorganizados cada vez que sea concluido un proyecto, mientras que en otras los equipos permanecerán prácticamente constantes. El último tipo de organización es la organización matricial. Este tipo de organización trata de combinar las ventajas de las organizaciones fun- Director General Director Proyecto 1 Director Proyecto 2 FIGURA 11.10 Organización por proyecto Director Proyecto 3 Director Proyecto 4 288 Capítulo 11 Administración de proyectos Director General Director de proyectos Administrador funcional Administrador funcional Administrador funcional Administrador del proyecto Administrador del proyecto Administrador del proyecto Administrador del proyecto Interfase funcional del proyecto FIGURA 11.11 Organización matricial cional y por proyectos. En la figura 11.11 se presenta un ejemplo de una organización matricial, en donde se tiene por un lado al director general, del cual dependen el director de proyectos y los administradores funcionales de mercadotecnia, finanzas, etc. Las funciones están representadas de manera horizontal y los proyectos de manera vertical. Del director de proyectos dependen administradores de proyectos individuales, que utilizarán los recursos de cada uno de los administradores funcionales, según las necesidades específicas del proyecto. En este tipo de organización cada persona de área funcional va a ser responsable de un aspecto del proyecto, mientras que el director del proyecto tendrá que integrar todos los esfuerzos para lograr el resultado final. Una de las ventajas principales de este tipo de organización es que facilita el aprendizaje entre diferentes proyectos. Sin embargo, su principal problema es la asignación adecuada de cargas de trabajo en el tiempo para personas que pueden estar participando en una variedad de proyectos. Además, las líneas funcionales y de proyectos pueden crear conflictos de autoridad y confusión de prioridades. Gráfica lineal de responsabilidades: la gráfica lineal de responsabilidades va a relacionar la estructura del trabajo con el equipo que va a participar en el proyecto. Consiste en asignar a los diversos miembros del equipo diferentes grados de responsabilidad en cada tarea del equipo, es decir, se 289 11.3 Planeación de proyectos relaciona a las personas con las tareas. La gráfica lineal de responsabilidades parte del principio de que diferentes personas tendrán distintos grados de responsabilidad en las tareas de un proyecto. Para construir una gráfica lineal de responsabilidades, se construye un cuadro en el que cada renglón representa una tarea, y cada columna uno de los miembros del equipo del proyecto. En una misma tarea es probable que diferentes personas estén involucradas. Primero se deberá definir a los miembros del equipo que estarán involucrados en cada una de las tareas a realizar. Después se debe definir qué grado de responsabilidad tienen y cómo están involucrados. Estos grados de responsabilidad pueden ser definidos por la organización o por el líder del proyecto. No existe una manera única de determinar las diferentes responsabilidades que van a tener las diferentes personas en el proyecto, sino que de acuerdo con el proyecto se tiene que entender cuáles son los grados de involucramiento que van a tener los diferentes miembros del equipo. El cuadro terminado permite a cada persona ver las tareas en las que está involucrada, las personas con las que tiene que interactuar en cada tarea y su grado de responsabilidad. La figura 11.12 presenta un ejemplo de gráfica lineal de responsabilidades para el proyecto de un nuevo producto. En el ejemplo ilustrado en la figura se tienen las actividades: diseño del plan, negociar contratos con los socios, desarrollo de un nuevo producto, desarrollo del esquema anual de operaciones y establecer costo estándar. Para cada una de estas actividades se analiza toda la gente involucrada dentro del proyecto y cuál va a ser su Administrador del Proyecto Administrador Financiero Administrador de Mercadotecnia Administrador de Producción Administrador de Contratos Diseño del plan P I I I, O I Negociar contratos con los socios I R I P Desarrollo de un nuevo producto N O P Desarrollar esquema anual de operaciones P N I, N Establecer costo estándar I P Tareas P: Principal responsable R: Revisión N: Notificación A: Aprobación I: Proporciona información FIGURA 11.12 Gráfica lineal de responsabilidades N 290 Capítulo 11 Administración de proyectos grado de involucramiento: P, Principal responsable; R, Revisión; N, Notificación; A, Aprobación; I, Proporciona información o algunas otras, de acuerdo con las necesidades del proyecto. Se puede observar en el ejemplo, que para cada tarea es conveniente que haya una persona responsable. Normas: las políticas o normas son una guía general para la toma de decisiones y acciones individuales. El conjunto de políticas opera como la normatividad dentro del proyecto y define la manera como deben hacerse las cosas. Dentro de un proyecto se pueden definir normas para una variedad de aspectos. A continuación se presenta un ejemplo para algunos aspectos principales: • • • • Normas de compras: para cualquier compra, la persona responsable debe tener al menos tres cotizaciones. Normas de comunicación: la comunicación de rutina dentro del proyecto se hará por medio de correo electrónico, a excepción de información confidencial de la empresa. Normas de reportes: cada responsable debe enviar un reporte semanal del avance de sus paquetes de trabajo, que incluya una explicación, en caso que haya alguna desviación del programa original. Normas de reuniones: las reuniones para las diferentes tareas deberán programarse con una duración máxima de 30 minutos, y sólo tendrán que asistir las personas involucradas directamente con esa tarea, según se define en la gráfica lineal de responsabilidades. De acuerdo con Donnelly (1997), las políticas efectivas deben tener las siguientes cinco características: 1. Claridad: las políticas deben estar escritas clara y lógicamente. Cada una debe especificar una meta, método y acciones apropiadas para aquellos que van a ser guiados por esta política. 2. Comprensiva: para que un plan se pueda efectuar, las políticas deben ser lo suficientemente comprensivas para cubrir cualquier tipo de contingencia. 3. Coordinación: las políticas proporcionan directrices para que las diferentes subunidades persigan los mismos objetivos. 4. Ética: es necesario que las políticas respeten el comportamiento de la sociedad. 5. Flexibilidad: debe existir un equilibrio entre la estabilidad y la flexibilidad. Las condiciones cambian y las políticas tienen que cambiar de acuerdo con estas condiciones. Por otro lado, debe prevalecer cierto grado de estabilidad para mantener el orden en el sentido de la dirección que se lleva. 11.3 Planeación de proyectos 291 Si bien estas características deben cumplirse, la última prueba de efectividad de una política es el logro o fracaso del objetivo deseado. Las políticas de proyectos dentro de una organización deben ser reexaminadas periódicamente para adaptarse a los objetivos que se quiere alcanzar. Presupuesto: el presupuesto es una planeación de gastos requeridos para cumplir los objetivos; muestra la manera en que se va a manejar el dinero dentro de las actividades. Al igual que la planeación general, existen dos estrategias para reunir información acerca del presupuesto: • • Presupuesto top-down, donde se reúnen los juicios y experiencias de los administradores con amplia experiencia, así como datos pasados que tengan que ver con actividades similares. Presupuesto bottom-up, en el que se utiliza la estructura del trabajo como base para realizar el presupuesto de cada tarea, y a partir de estos presupuestos parciales generar el presupuesto total del proyecto. El caso bottom-up proporciona una mejor estimación, ya que permite asignar costos a cada uno de los recursos (humanos, insumos y maquinaria) que se utilizarán en cada tarea. El presupuesto va a estar determinado por la forma en que se haya hecho la estructura de trabajo. Según Kerzner (2003), una organización puede asignar presupuesto entre proyectos a lo largo de su ciclo de vida de acuerdo con dos sistemas. El sistema de programación y planeación del presupuesto (PPBS) sirve para identificar la planeación y control de proyectos que maximizarán las metas alcanzadas por las organizaciones en el largo plazo. Se centra básicamente en aquellos proyectos que traerán mayor progreso de acuerdo con las metas organizacionales al menor costo. Básicamente sigue los siguientes pasos: • • • • Identificar las metas y objetivos para cada área. Ésta es la “porción de planeación”. Analizar los programas propuestos para lograr objetivos organizacionales. Este paso requiere una buena descripción de la naturaleza del proyecto; es la parte de “programación”. Estimar los costos totales para cada proyecto, incluyendo los costos indirectos. Analizar los proyectos alternativos en términos de los costos, beneficios y ciclo de vida esperados. Se realizan análisis de costo-beneficio para cada programa, para que éstos puedan ser comparados con otra selección de proyectos. El sistema de presupuesto base cero (ZBB) consiste en que cada programa debe ser revisado y justificado cada año, antes que cualquier programa 292 Capítulo 11 Administración de proyectos reciba cualquier tipo de fondeo. El objetivo es ahorrar desechando proyectos que han mantenido sus utilidades y continuado por la inercia de los creadores de la política. Análisis del riesgo: el análisis de riesgo es una anticipación a las posibles contingencias del proyecto. Para realizar el análisis de riesgo es necesario diferenciar entre incertidumbre y riesgo. Mientras que la incertidumbre se refiere a factores inciertos relacionados con el proyecto, el riesgo se va a tratar de cuantificar y prevenir. La medición del riesgo resulta de multiplicar la probabilidad de que suceda un evento (qué tan posible es que ocurra: un número entre cero y uno) por el impacto, si llegara a suceder (cuantificando el costo y el tiempo). La administración del riesgo consiste en tres etapas: identificación, análisis y respuesta (figura 11.13). Si bien el proceso en teoría sigue ese orden, en la práctica es un proceso iterativo donde la generación de respuestas al riesgo puede generar cambios en los planes de acción que requieren nuevos análisis. A continuación se describen las tres etapas. 1. Identificación de riesgos. Consiste en generar una lista de los riesgos que tiene el proyecto. Ésta debe incluir tanto los riesgos internos (los que están directamente relacionados con acciones del proyecto, como por ejemplo una falla tecnológica), como los externos (los elementos en el entorno que pudieran afectar el proyecto, como por ejemplo una devaluación). Estos riesgos pueden ser de diversos tipos: • • Riesgos de inversión: son los que se refieren a las decisiones de capital invertido. El principal determinante de estos riesgos va a ser el beneficio esperado del proyecto contra el costo esperado de éste. Siempre existen riesgos en decisiones de inversión, como invertir en un nuevo producto por la incertidumbre que existe en la aceptación en el mercado, que finalmente se refleja en ganancias o pérdidas. Riesgos de estrategia: son los asociados con las diversas elecciones de cómo desarrollar el proyecto. Una decisión siempre Identificación de riesgo Análisis de riesgo FIGURA 11.13 La administración del riesgo Respuesta al riesgo 11.3 Planeación de proyectos • • 293 implica varias maneras de lograr el objetivo, por lo que los riesgos estratégicos buscan la manera óptima de cubrir los objetivos planteados. Riesgos condicionales: éstos se refieren a cambios en las condiciones de operación en el curso del proyecto, dada la incertidumbre de los eventos futuros. Estos riesgos están asociados con las condiciones que surgen durante el desarrollo del proyecto que pueden ser diferentes a las condiciones originalmente previstas. Riesgos asegurables: éstos son los riesgos relacionados con eventos ya conocidos estadísticamente, como accidentes, fuegos, pérdidas, etc. Las compañías aseguradoras están construidas en torno a estos riesgos, por lo que su prevención puede ser realizada, así pueden ser minimizados estos riesgos. Éstos son los riesgos para incidentes que tienen una historia estadística. Para generar la lista de riesgos, generalmente se utiliza la técnica de “lluvia de ideas”, una dinámica que permite una amplia identificación de riesgos posibles. Para la lluvia de ideas se tendrá una primera sesión de creatividad, donde miembros del grupo discuten según sus conocimientos y experiencias las principales fuentes de riesgo que pueden existir dentro de su proyecto. La segunda sesión es de evaluación, donde se analiza cada una de las propuestas anteriores y se obtiene una lista definitiva de los riesgos a tomar en consideración. 2. Análisis de riesgo. Es la metodología para estudiar factores que constituyen el riesgo al que está expuesto un proyecto. El análisis de riesgo trata de racionalizarlos de tal manera que el administrador pueda ver la probabilidad de que éstos ocurran y su impacto en el proyecto. Las técnicas pueden ser tanto cuantitativas (en riesgo asegurable mediante estadísticas, en riesgo en inversión mediante análisis de sensibilidad y en riesgo de estrategia con un árbol de decisión) como cualitativas (grupo de enfoque, análisis histórico). 3. Respuesta al riesgo. Es la práctica de reaccionar ante un riesgo percibido (por análisis de riesgo u observación), de tal manera que se minimicen las posibles consecuencias adversas. Las respuestas genéricas a los diferentes riesgos son: evitar, reducir, asumir, transferir y realizar estudios exhaustivos. La figura 11.14 presenta un ejemplo de administración de riesgo, para el caso de establecer un punto de venta para productos industriales. Podemos observar que la respuesta al riesgo dependerá en gran medida del resultado de la etapa de análisis. 294 Capítulo 11 Administración de proyectos Fuentes de riesgo Análisis del riesgo Respuesta al riesgo • Falta de demanda Estudio de mercado. Ingreso al mercado o evaluación de mercados alternativos. • Tasas de interés Análisis de sensibilidad. Cuáles serían los efectos de cambios en la tasa de interés en el proyecto. Tasa fija o variable, según expectativas e impacto. • Variaciones en tipo de cambio Análisis econométrico. Coberturas cambiarias. • Condiciones del suelo Estudio de mecánica de suelos. Refuerzo o búsqueda de terrenos alternativos. • Fallas en entregas de los proveedores Historial de proveedores. Contratos con altas penalizaciones por incumplimiento de condiciones. FIGURA 11.14 Ejemplo de administración de riesgo 11.4 Programación de proyectos con tiempos de actividades conocidos En esta sección se describe la metodología para programar las actividades asociadas a un proyecto, tomando en cuenta sus predecesores y el tiempo promedio de cada actividad. La programación de actividades conforme a los métodos de ruta crítica, CPM (Critical Path Method) y el PERT (Program Evaluation and Review Technique), empieza con un listado y una descripción de las actividades, incluyendo su tiempo esperado de realización y sus predecesores inmediatos; un predecesor se define como aquella actividad que debe estar terminada por completo antes de iniciar la actividad posterior. Una actividad puede tener más de un predecesor inmediato. Posteriormente se realiza un diagrama de precedencias conforme a lo descrito en la sección anterior. Finalmente, la estimación del tiempo de terminación de un proyecto se realiza tomando en cuenta cuatro tiempos relacionados con cada actividad. • • Tiempo de terminación más próximo, EF (del inglés, earliest finish time): está dado por su tiempo de inicio más próximo más el tiempo esperado (t) para llevar a cabo la actividad. En resumen, EF ES t. Tiempo de inicio más próximo, ES (del inglés, earliest start time): para una actividad corresponde al tiempo de terminación de la actividad que le precede inmediatamente. En caso que la actividad a analizar tenga más de una actividad precedente, el ES corresponderá al valor más lejano entre todos los tiempos de terminación más próximos de las actividades precedentes. 295 11.4 Programación de proyectos con tiempos de actividades conocidos Descripción de la actividad Actividad Predecesor inmediato Tiempo de la actividad A Elaborar los planos — 5 B Obtener aprobaciones — 6 C Diseñar la obra civil A 4 D Especificar el equipo A 3 E Solicitar el equipo A 1 F Instalar el equipo E 4 G Pruebas de arranque D, F 14 H Pruebas de seguridad B, C 12 I Certificar la planta G, H 2 Total 51 E F A D G I Inicio C Fin H B FIGURA 11.15 Datos sobre las actividades del proyecto de una planta de manufactura y las rutas del proyecto • • Tiempo de terminación más lejano, LF (del inglés, latest finish time): de una actividad equivale al tiempo de inicio más lejano de la actividad inmediata subsecuente. En caso que las actividades tengan más de una actividad que la siga en forma inmediata, el LF corresponderá al más próximo de los tiempos de inicio más lejanos de esas actividades. Tiempo de inicio más lejano, LS (del inglés, latest start time): para una actividad determinada es igual al tiempo de terminación más lejano menos la duración esperada (t) de dicha actividad; es decir, LS LF – t. El siguiente ejemplo ilustra los conceptos descritos en esta sección. La tabla de la figura 11.15 contiene un listado de actividades para un proyecto rela- 296 Capítulo 11 Administración de proyectos Tiempo de inicio más corto Tiempo de terminación más corto Clave de la actividad FIGURA 11.16 Formato estándar para el registro de actividades y tiempos Tiempo de terminación más largo Tiempo de la actividad Tiempo de inicio más largo cionado con la construcción de una nueva planta de manufactura. Las figuras subsecuentes muestran el diagrama de precedencias y la red de actividades conforme al diagrama de red. Los tiempos de inicio y terminación más próximos, así como los tiempos de inicio y terminación más lejanos, se presentan en las siguientes figuras. La figura 11.16 presenta el orden en el que se reporta cada uno de estos tiempos, mientras que la figura 11.17 presenta los resultados de cada tiempo en el diagrama de red. La parte superior en cada uno de los cuadros del diagrama muestra los tiempos más cortos, mientras que la parte inferior se utiliza para registrar los tiempos más lejanos. En la figura 11.17 se observa que en algunos casos no existe diferencia entre los tiempos de inicio más cercanos y los más lejanos (y, en consecuencia, tampoco hay en estos casos diferencias entre los tiempos de inicio y terminación más lejanos). Estos casos sirven para ilustrar el concepto de holgura de una actividad, la cual corresponde a la máxima cantidad de tiempo que dicha actividad puede retrasarse sin provocar retrasos en todo el proyecto. Por definición, una actividad crítica es aquella con holgura igual a cero, mientras que la ruta crítica de un proyecto está determinada E 5 6 F 6 1 5 6 4 10 10 14 A 0 5 0 5 8 G 10 24 5 0 5 3 7 10 14 10 24 C 5 9 H 4 7 12 12 12 9 21 1 24 26 24 2 24 26 Inicio FIGURA 11.17 Tiempos de inicio y terminación más cercanos y más lejanos Fin B 0 6 6 6 12 297 11.5 Programación de proyectos con tiempos de actividades inciertos por las actividades críticas. Para el ejemplo anterior, se observa que la duración del proyecto será de 26 semanas, mientras que la ruta crítica estará formada por las actividades A-E-F-G-I. Ninguna de estas cinco actividades podrá sufrir demoras o de lo contrario se retrasará todo el proyecto. 11.5 Programación de proyectos con tiempos de actividades inciertos A diferencia de lo presentado en la sección anterior, en muchas ocasiones no se cuenta con información confiable sobre la duración de las actividades de un proyecto. En estos casos, el ingeniero industrial está obligado a lidiar con estas incertidumbres y a generar modelos de red y estimaciones de tiempo de terminación. Una alternativa para resolver estas situaciones es expresar los tiempos de las actividades en función de tres posibilidades: • • • El tiempo optimista (a): es el tiempo más corto en que puede llevarse a cabo una actividad, en caso que todo resulte excepcionalmente bien. El tiempo más probable (m): en condiciones normales, es el tiempo más probable en el que se llevará a cabo la actividad. El tiempo pesimista (p): es el tiempo más largo que se requerirá para terminar la actividad. El resto de los cálculos se basa en dos suposiciones: la primera es que es posible determinar los tres tiempos anteriores, lo cual suele hacerse tomando en cuenta proyectos similares o estimaciones conservadoras de cada uno de los tres tiempos. La segunda suposición es que la desviación estándar del tiempo de las actividades es igual a un sexto del intervalo (a – b), que se comporta conforme a una función de distribución beta. Esta función se ilustra en la figura 11.18. Tiempo más probable Tiempo esperado (t) Tiempo optimista FIGURA 11.18 Distribución del tiempo de una actividad Tiempo pesimista 0 a m b 298 Capítulo 11 Administración de proyectos La curva de distribución beta y el supuesto anterior significan que la probabilidad de que los tiempos de las actividades sean inferiores a a o superiores a b es remota. En consecuencia, la media (te) y la varianza (s2) de cada actividad estará dada por las siguientes ecuaciones: te a 4m b s2 a 6 ba 6 2 b El siguiente ejemplo está relacionado con el supuesto proyecto de lanzamiento de un nuevo producto al mercado, bajo un entorno de incertidumbre en los tiempos de las actividades. La figura 11.19a contiene los nombres de las actividades y sus predecesores inmediatos. La figura 11.19b muestra los tiempos optimista, más probable y pesimista; asimismo, esta misma tabla contiene los valores que resultan al sustituir las fórmulas de tiempo esperado y varianza. Una vez que se determinan los tiempos esperados para cada actividad y las varianzas, se procede a realizar el diagrama de actividades de la misma manera que en la sección anterior. La única diferencia es que ahora los resultados del tiempo esperado de terminación deberán ser interpretados en términos de probabilidad. La figura 11.20 contiene los tiempos de inicio y terminación más cercanos y más lejanos. Conforme al diagrama de red se observa que la ruta crítica está dada por las actividades A-E-H-I-J y, además, la suma de los tiempos esperados para las actividades que conforman la ruta crítica es de 17 semanas. Actividad Descripción de la actividad Predecesor inmediato A Desarrollo conceptual — B Estudio de mercado — C Diseño del proceso A D Manufactura de prototipos A E Pruebas mecánicas A F Estimación de costos C G Pruebas finales D H Investigación de mercados B, E I Pronóstico y estrategia de precios H J Reporte final y lanzamiento F, G, I FIGURA 11.19a Datos de las actividades 299 11.5 Programación de proyectos con tiempos de actividades inciertos Actividad Optimista a Más probable M Pesimista b Tiempo esperado te ⴝ[aⴙ4mⴙb]/6 Varianza s2 A 3 5.5 11 6 1.778 B 1 1.5 5 2 0.44 C 2 3 4 3 0.11 D 3 4 11 5 1.78 E 2 3 4 3 0.11 F 1.5 2 2.5 2 0.03 G 1.5 3 4.5 3 0.25 H 2.5 3.5 7.5 4 0.69 I 1.5 2 2.5 2 0.03 J 1 2 3 2 0.11 FIGURA 11.19b Información sobre el tiempo de las actividades y resultados de media y varianza El tercer supuesto en la estimación del tiempo total estimado de terminación de un proyecto (TE), es que éste se comporta conforme a una curva de distribución normal, mientras que la varianza del proyecto estará dada por la suma de las varianzas que forman parte de las actividades en la ruta crítica, es decir: 1.78 0.11 0.69 0.03 0.11 2.72, lo que a su vez corresponde a una desviación estándar (raíz de la varianza) de 1.65. Conforme a lo explicado en el Apéndice del libro y tomando en cuenta una C 6 9 F 9 11 3 10 13 2 13 15 A 0 6 0 6 11 6 11 14 J 15 17 6 0 6 5 7 12 3 12 15 2 15 17 E 6 9 H 9 13 1 13 15 3 6 9 4 9 13 2 13 15 Fin Inicio B 0 2 2 7 9 FIGURA 11.20 Diagrama de red para el proyecto 300 Capítulo 11 Administración de proyectos curva de distribución normal, es posible enumerar las dos observaciones siguientes: 1. Existe 50% de probabilidad que el proyecto sea terminado en 17 semanas o menos. 2. La probabilidad de que el proyecto sea terminado en T semanas será una función del valor de la desviación estándar y el número de desviaciones estándar con respecto a la media (z), dado por la siguiente ecuación: z T E(T ) s Así, por ejemplo, la probabilidad de que el proyecto para lanzar un nuevo producto al mercado sea terminado en 19 semanas o menos será de 88.49%, tal y como lo demuestra la siguiente ecuación: z 19 17 1.65 1.21 En cualquier tabla con los valores de z para una distribución normal se observa que z 1.21, lo que corresponde a un valor de 0.8849; es decir, 88.49%. 11.6 Consideraciones de costos La planeación de la fecha de terminación de un proyecto y la probabilidad para cumplir con el tiempo estimado son dos actividades que el ingeniero debe complementar. Lo importante no es sólo mantener las fechas previstas, sino también incurrir en costos dentro de un margen aceptable. En relación con lo anterior, existe la posibilidad de realizar trueques entre los tiempos y los costos de cada actividad. Esta posibilidad se basa en el supuesto que establece que algunas actividades son susceptibles de realizarse en un menor tiempo, siempre y cuando se asigne una mayor cantidad de recursos, la cual puede deberse a horas extra, más personal o más maquinaria. El análisis de los costos de intensificación de las actividades se realiza con base en cuatro definiciones, mismas que se explican a continuación y se ilustran en la figura 11.21. • • • • El tiempo normal (TN) es el tiempo estimado para completar la actividad en condiciones normales. El costo normal (CN) es el costo esperado al que se deberá incurrir para completar la actividad en tiempo normal. El tiempo intensivo (TI) es el tiempo más corto posible para completar la actividad, si ésta recibe una mayor cantidad de recursos. El costo intensivo (CI) es el costo esperado por asignar más recursos e intensificar la actividad asociada con el tiempo intensivo. 11.6 Consideraciones de costos 301 $ Costo intensivo (CI ) Costo de intensificación por periodo = CI – CN TN – TI Costo normal (CN ) Tiempo Tiempo intensivo (TI ) Tiempo normal (TN ) FIGURA 11.21 Relaciones costo-tiempo para una actividad Existen dos supuestos dentro del análisis de costos. El primero de ellos indica que los costos por intensificación aumentan de manera lineal en función de la reducción del tiempo de la actividad con respecto a su valor normal. El segundo supuesto indica que las actividades sólo pueden intensificarse hasta cierto valor mínimo (equivalente al tiempo intensivo); es decir, a pesar que se asigne una cantidad infinita de recursos a una actividad, su tiempo de realización nunca llegará a ser de cero. En la mayoría de las ocasiones el ingeniero no desea intensificar al máximo los recursos (es decir, reducir al máximo el tiempo esperado del proyecto), ya que eso representaría una inversión y costos excesivos de ejecución. Las decisiones en torno a la intensificación de las actividades suelen basarse en tres conceptos: • • • Los costos de penalización (CP) en los que se incurre por terminar el proyecto después de la fecha límite determinada. Los costos de bonificación (CB) con los que se podría beneficiar si termina el proyecto antes de la fecha convenida. El costo intensivo por cada periodo (CIperiodo) en que se disminuya el tiempo esperado de una actividad. Este valor corresponde a la pendiente de la recta en la figura 11.21. El siguiente ejemplo ilustra la aplicación de los conceptos presentados en esta sección. Suponga que el gobierno de una ciudad ha firmado recientemente un contrato con la compañía “Constructora, S.A.”. El contrato requiere la construcción de un distribuidor vial en el cruce entre dos importantes avenidas, como parte de un proyecto que busca hacer más expedito el tránsito en la metrópoli. En el contrato se especifica que el distribuidor deberá estar terminado dentro de 36 meses. Además, se impondrá una pe- 302 Capítulo 11 Administración de proyectos nalización de $1 000 000 por cada mes que el proyecto exceda el límite de tiempo y se concederá una bonificación de $300 000 por cada mes de adelanto en la terminación del proyecto, con respecto a la fecha límite. La tabla de la página siguiente presenta el listado de las actividades, así como su tiempo y costos en las condiciones normales e intensificados. La última columna es el resultado de calcular la pendiente de la recta conforme a lo ilustrado en la figura 11.21, es decir, representa el costo mensual por intensificar una actividad. Con base en la información anterior se determina la duración estimada y la ruta crítica del proyecto, la cual está dada por las actividades críticas, es decir, aquellas con holgura igual a cero. La figura 11.22 presenta el diagrama de red para el proyecto. Existen dos rutas críticas para el proyecto, ambas con una duración de 40 meses. La primera ruta crítica está formada por las actividades A-B-DE-G-H-I, mientras que la segunda la forman las actividades A-C-F-G-H-I. Actividad Descripción Tiempo normal (meses) Tiempo intensivo (meses) Costo normal ($000) Costo intensivo ($000) Predecesor inmediato Costo intensificado (CIp ) por mes A Planos del proyecto 4 3 200 250 — 50 B Permiso de construcción 6 4 500 800 A 150 C Cimientos y columnas mayores 8 6 800 1200 A 200 D Columnas menores 3 3 100 100 B 0 E Iniciar instalación 4 3 200 350 D 150 F Fabricar bloques de autopista 5 3 400 800 C 200 G Armar el distribuidor 15 10 1000 3500 E, F 500 H Refuerzos y arreglos menores 5 4 600 800 G 200 I Certificar el sistema 3 2 300 400 H 100 FIGURA 11.22 Diagrama de red 303 11.6 Consideraciones de costos Intento Actividades a intensificar Reducción de tiempo (meses) Duración del proyecto (meses) Costos de intensificación (acumulados) Costos de penalización y/o bonificación (acumulados) Total 0 — — 40 — (4000) (4000) 1 A 1 39 (50) (3000) (3050) 2 I 1 38 (150) (2000) (2150) 3 H 1 37 (350) (1000) (1350) 4 BC 1 36 (700) 0 (700) 5 BC 1 35 (1050) 300 (750) FIGURA 11.23 Evaluación de los costos de intensificación para el proyecto Cualquiera de estas dos rutas representa la misma duración para el proyecto, ya que en este ejemplo en particular todas las actividades son críticas. La administración de los costos del proyecto muestra que no es atractivo terminar el proyecto en 40 meses, debido a que se incurriría en una penalización de $4 000 000, correspondiente a cuatro meses de retraso con respecto a los 36 meses acordados para el proyecto. En consecuencia, el ingeniero deberá identificar las ventajas que ofrece intensificar algunas de las actividades del proyecto, con el objeto de disminuir la duración total del mismo. En la figura 14.22 se muestran los resultados del análisis de costos. La interpretación de este análisis requiere de las siguientes consideraciones: 1. Se deben intensificar solamente las actividades que formen parte de la ruta crítica. En este ejemplo, todas las actividades son críticas, por lo que la decisión sobre qué actividad intensificar estará dada por el menor costo de intensificación mensual (CIp). En este ejemplo, las actividades con los menores costos de intensificación son A, I, H, respectivamente. Observe que la actividad D no es considerada, debido a que según la figura 11.21 no es posible disminuir su tiempo de realización. 2. Es importante observar que cuando se intensifican las actividades de alguna ruta crítica y se disminuyen sus tiempos, llegará un momento en el que surja una nueva ruta crítica. En este ejemplo, se observaría que intensificar solamente las actividades B, D o E no ayudaría en el proyecto, debido a que las actividades C y F se mantendrían como críticas y, por lo tanto, la duración total del proyecto no cambiaría. 3. Se observa que una vez intensificadas las actividades A, I, H hasta su valor mínimo posible (tiempo de intensificación), se deberá proceder a intensificar una combinación de actividades en cada ruta 304 Capítulo 11 Administración de proyectos (por ejemplo, B y C), debido a que resultan más baratas en comparación con la actividad G, la cual tiene un costo de intensificación de $500 000 por mes. La combinación B C representa un costo combinado de intensificación de $350 000 por mes. Este criterio aplica también para la combinación B F y E F, por lo que en el problema pudo haberse elegido cualquiera de estas tres combinaciones y obtener el mismo resultado en cuanto a costos de intensificación. 4. Finalmente, se observa en la figura que sólo conviene intensificar las actividades B y C en un solo mes, a pesar que según la figura 11.21 podrían intensificarse dos meses. Esto se explica mejor en el último renglón de la figura 11.23, en donde se observa que al intentar intensificar B F un segundo mes, se obtiene como beneficio un esperado de terminación de 35 meses y una bonificación de $300 000, debido a que se terminaría un mes antes de lo acordado. Sin embargo, el costo extra total del proyecto sería de $750 000, lo cual es superior a los $700 000 correspondientes a intensificar sólo un mes la actividad B C (ver intento 4 en la figura). La decisión final sería con base en el costo total. Este capítulo se ha centrado en analizar los elementos que debe contener un plan, incluyendo objetivo, programa, equipo, presupuesto y análisis de riesgo. Estos elementos reflejan las diferentes dimensiones que se deben planear y manejar para tener un proyecto exitoso. Finalmente, se deberá hacer énfasis en los constantes cambios en el entorno que han aumentado la importancia de los proyectos en el contexto de las empresas. Así como los procesos sirven para dar estabilidad y eficiencia a la producción de bienes y servicios, los proyectos permiten realizar los cambios necesarios. La correcta aplicación de las técnicas de administración de proyectos, resultará en el logro de los objetivos dentro de las especificaciones, tiempo y costos deseados. Una buena selección de proyectos permitirá a la empresa adaptarse a los cambios del entorno y lograr rentabilidad e innovación en el largo plazo. EJERCICIOS PROPUESTOS 1. ¿Qué es la organización del equipo de proyecto y cuáles son los tipos más comunes? Investigue cómo es la organización que existe en su universidad u oficina. 2. ¿Por qué considera importante la administración de proyectos para un ingeniero? Referencias 305 3. Realice el siguiente diagrama de precedencias. Actividad Actividades predecesoras A B A, C C — D B, C E B, D F E G F 4. Si los tiempos requeridos para realizar las actividades del ejercicio anterior son 4, 8, 3, 2, 2, 5 y 6 minutos, respectivamente, determine la ruta crítica. 5. Suponga que en una empresa de alimentos enlatados se planea comprar una planta de luz, ya que el precio de ésta en horas pico es muy alto y también existen pérdidas por apagones. Proponga una tabla de administración de riesgo para este caso. Referencias Archibald, R. (2003). Managing High-Technology Programs and Projects, 3a. Ed. John Wiley and Sons. Chapman, C. y Ward, S. (2003). Project Risk Management: Processes, Techniques and Insights, 2a. Ed. John Wiley & Sons. Cleland, D. e Ireland, L. (2002). Project Management: Strategic Design and Implementation, 4a. Ed. McGraw-Hill Professional. Donnelly, J., Gibson, J. e Ivancevich, J. (1997). Fundamentals of Management, 10a. Ed. Richard D. Irwin. Kerzner, H. (2003). Project Management: A Systems Approach to Planning, Scheduling, and Controlling, 8a. Ed. John Wiley and Sons. Meredith, J. y Mantel, S. (2002). Project Management: A Managerial Approach, 5a. Ed. John Wiley and Sons. Project Management Institute. (2004). A Guide to the Project Management Body of Knowledge: PMBOK Guide (PMBOK Guides), 3a. Ed. Project Management Institute. Romero-Hernández, O. (2012), Notas del módulo de administración de proyectos en el Diplomado de planeación y dirección de operaciones, documento de trabajo, Centro de Desarrollo Tecnológico, ITAM, México. CAPÍTULO 12 Ingeniería y control de la calidad AUTOR: Dr. Omar Romero Hernández 12.1 La filosofía de calidad 12.2 Variabilidad en el desempeño 12.3 Herramientas para analizar y registrar la variabilidad 12.4 Control estadístico de procesos 12.5 Medición de la habilidad de un proceso 12.6 Six Sigma 12.7 Mejora en la habilidad de un proceso 12.8 Las normas ISO 9000 e ISO 14000 12.1 La filosofía de calidad El comportamiento de los consumidores es uno de los mejores ejemplos de los sistemas en donde constantemente cambian las condiciones y los criterios de decisión. A partir de la década de los años setenta los requerimientos por parte de los clientes empezaron a cobrar mayor fuerza, hasta empezar a convertirse en determinantes para la decisión de compra. Hoy en día, reconocer el poder de compra de los clientes representa una importante oportunidad para las empresas que acepten el reto de proveer bienes y servicios de calidad y con la mayor eficiencia posible (Romero, 2003). Conforme se va haciendo más fuerte la competencia, aumenta la presión en el diseño de productos, la manufactura y las organizaciones de servicios para ser más eficientes y productivas. Las compañías manufactureras se ven constantemente presionadas para aumentar la calidad y al mismo tiempo disminuir los costos, mientras que las organizaciones proveedoras de servicios buscan reducir los tiempos de ciclo y aumentar la satisfacción de sus clientes. Algunos de los problemas anteriores pueden encontrar respuesta en este capítulo. En particular, y para efectos de este libro, se hace énfasis en el concepto de calidad, el cual ha cobrado auge desde hace varias décadas. Las siguientes secciones describen con mayor detalle algunos conceptos funda- 308 Capítulo 12 Ingeniería y control de la calidad mentales sobre la filosof ía de calidad, la administración total de la calidad y la ingeniería de calidad. Asimismo, se introducen herramientas de análisis y control estadístico de procesos, así como una presentación sobre dos de las principales normas internacionales en el ramo de la calidad: la Norma ISO 9000 y la Norma ISO 14000. Aun cuando los términos de calidad hoy parecen ser bastante comunes, no fue sino hasta hace algunas décadas que cobraron fuerza. Probablemente dos de las personas que más tuvieron que ver fueron los consultores W. Edwards Deming y Joseph M. Juran. Ambos nacieron en Estados Unidos, pero fue en Japón en donde sus ideas fueron bienvenidas. Deming proponía que la calidad no era una responsabilidad del trabajador, sino de la gerencia, pero sobre todo que los directores debían promover los ambientes organizacionales en los que los problemas de calidad fueran detectados y resueltos. Por su parte, Juran opinaba que la excelencia en calidad requería de iniciativas de mejoramiento continuo y una capacitación constante a todos los niveles. El mejor ejemplo en la adopción de la filosof ía de calidad lo representa el sector automotriz japonés. Antes de la década de 1970 las armadoras estadounidenses eran las líderes indiscutibles en el mercado automotriz, mientras que las armadoras japonesas luchaban por incorporar al mercado sus automóviles pequeños y de bajo consumo de combustible. La crisis energética mundial ocurrida en la misma década obligó a los consumidores a voltear hacia los productos japoneses, lo cual, combinado con la creencia de que los vehículos de Japón eran de mejor calidad, permitió una entrada vertiginosa de autos orientales. Ante esta situación, muchas armadoras estadounidenses no tuvieron otra opción que resignarse en el corto plazo y empezar a adoptar rápidamente la filosof ía de calidad que tanto éxito representó en Japón. En opinión de muchos expertos, la calidad no es sólo una filosof ía, sino un importante arma de competitividad. Calidad se entiende como la satisfacción o incluso la superación de las expectativas del cliente. La calidad puede representarse de diversas formas, por ejemplo: 1. El cumplimiento de las especificaciones anunciadas en los productos o servicios (duración, resistencia, consumo, tiempo de entrega, etc.). 2. El valor del producto o servicio, entendido como la relación entre lo que los clientes están dispuestos a pagar por un producto o servicio diseñado para un propósito en particular. 3. El servicio al cliente antes y después de la venta. Las acciones orientadas a incrementar la calidad se suelen basar en los programas de administración de la calidad total (TQM, por sus siglas en inglés) y sus tres principios centrales: satisfacción del cliente, participación e involucramiento de los empleados y mejora continua de la calidad. Un programa TQM incluye una definición del cliente de cada empleado, los 12.1 La filosof ía de calidad 309 cuales pueden ser internos o externos. Los clientes internos suelen ser aquellos empleados dentro de la empresa que requieren de los productos o servicios de otros empleados de la misma empresa encargados de etapas posteriores en el mismo proceso de producción. Cada una de las actividades que agregan valor son especificadas entre cada cliente interno de la compañía, con la idea de que el producto o servicio final sea de la más alta calidad. Los clientes externos son las personas o compañías que pagan por el producto o el servicio. En este caso la empresa que adopte un programa TQM debe orientar todos sus esfuerzos y recursos en un solo sentido: la satisfacción del cliente. Proceso de resolución de problemas. Éste es uno de los métodos más aceptados para la solución de problemas dentro de las empresas, que tienen como meta desarrollar productos y servicios de calidad. Este método, también conocido como la rueda de Deming, es considerado como una parte medular del proceso de mejora continua de procesos y se divide en un ciclo con cuatro pasos: planear-hacer-comprobar-actuar. En la primera parte, el equipo de trabajo identifica el proceso que requiere mejoras, documenta el comportamiento de las principales variables y establece metas de mejora. Posteriormente, los integrantes del equipo llevan a cabo el plan de acciones y documentan los progresos. En la tercera etapa el equipo comprueba que se hayan alcanzado las metas establecidas en el primer paso y, finalmente, documenta el proceso realizado, a fin de que se convierta en un procedimiento normal para todos aquellos que deseen implementarlo. Es importante recordar que este proceso es cíclico debido a que las oportunidades de seguir mejorando los procesos son permanentes y a que los procesos suelen ser parte de sistemas dinámicos, en donde las condiciones y el entorno del proceso varían con respecto al tiempo. Aparentemente, la adopción de círculos de calidad y de programas TQM puede representar una inversión considerable en recursos. Sin embargo, el no cumplimiento de las especificaciones de los productos y sus componentes puede representar una pérdida para la empresa. Lo anterior fue estudiado por Genichi Taguchi, quien incluso definió la función de pérdida de calidad. La función de Taguchi. Éste es uno de los enfoques creadores de la ingeniería de calidad, ya que combina conceptos de análisis de procesos y métodos estadísticos para mejorar la calidad y reducir los costos. En este sentido, la función de pérdida de calidad es igual a cero cuando las características de calidad de un producto o servicio coinciden exactamente con lo especificado, es decir, con el valor objetivo. Sin embargo, el valor de la función de pérdida aumenta exponencialmente a medida que las características de calidad se alejan del valor objetivo y se aproximan a alguno de los límites de tolerancia. En otras palabras, una pequeña desviación con respecto al valor objetivo provoca grandes pérdidas, tal y como se ilustra en la figura 12.1. La conclusión final de Taguchi establece que es crucial evaluar 310 Capítulo 12 Ingeniería y control de la calidad 20 15 10 Límite inferior 5 0 FIGURA 12.1 Función de pérdida de calidad de Taguchi 2 Límite superior 4 6 8 10 Valor objetivo y disminuir todas las formas de variabilidad asociadas al desempeño de un proceso en vez de conformarse con haber cumplido y estar dentro de los límites señalados en las especificaciones. Entender la variabilidad y disminuirla es una de las tareas fundamentales en torno a la calidad. 12.2 Variabilidad en el desempeño En realidad todos los procesos y productos presentan variabilidades en cuanto a su comportamiento o a las características del producto final. La variabilidad se refiere a la discrepancia entre el desempeño actual y el esperado. Lo más importante es reconocer y medir estas variabilidades, ya que representan costos mayores, menor calidad, mayor tiempo de flujo y, sobre todo, insatisfacción en el cliente. Congruente con la definición de clientes internos y externos indicada en la sección de TQM, se reconocen dos categorías de variabilidades: externas e internas. Las variabilidades externas están relacionadas con la percepción de los clientes sobre un producto determinado, siendo las medidas más típicas: los índices de satisfacción del cliente, el número de quejas recibidas y la clasificación (conocido como rankeo) de productos y empresas. Por otro lado, existen las variabilidades internas en la empresa, las cuales representan las diferencias entre los procesos y los productos para cada unidad o servicio producido. No existen dos productos exactamente iguales, a pesar de que hayan salido de la misma línea de producción. Asimismo, dos clientes distintos pueden tener opiniones completamente diferentes sobre un mismo servicio o producto. El efecto de estas variabilidades son distintos costos de operación, tiempos de manufactura, retrabajos y, en resumen, problemas de calidad y percepción por parte del cliente. Una observación a este respecto es que los clientes prefieren equipo y productos de comportamiento predecible, en vez de aquellos productos rápidos o so- 12.2 Variabilidad en el desempeño 311 fisticados, pero poco confiables en su comportamiento a lo largo del tiempo. También, por ejemplo, algunas personas preferirán un sistema de información relativamente lento, pero siempre operando, a un sistema rápido que constantemente se traba y requiere ser reiniciado. En consecuencia, una de las tareas más importantes del ingeniero industrial es identificar las causas de la variabilidad (discrepancias entre el comportamiento real y el comportamiento esperado de un proceso) y las acciones requeridas para evitar o aminorar los costos asociados a dicha variabilidad, es decir, proveer productos y servicios de calidad. Tipos y causas de variabilidad. El desempeño de un proceso es el resultado de tres factores principales: • • • La arquitectura del proceso (diseño de planta, capacidad y recursos empleados). La operación del proceso (distribución de recursos, secuenciación y programación de actividades). El entorno (niveles de demanda y oferta). La mezcla de estos factores tiene como consecuencia variabilidades en el producto o servicio. En este contexto, existen dos tipos de variabilidad: la variabilidad normal y la variabilidad anormal. La variabilidad normal es aquella que se espera en todo proceso para un diseño dado y un entorno en particular. La variabilidad anormal ocurre inesperadamente y perturba el estado de equilibrio de un proceso. La variabilidad normal es estadísticamente predecible e incluye variabilidades estructurales y variabilidades estocásticas. La variabilidad estructural se refiere a los cambios sistemáticos en el ambiente exterior, también conocidos como cambios estacionales, mientras que la variabilidad estocástica ocurre aleatoriamente y se debe a causas inherentes a cada proceso (también llamadas causas comunes). Las causas aleatorias pueden ser infinidad, pero cada una tiene sólo un pequeño efecto impredecible en el desempeño del proceso. Estas causas no pueden eliminarse con facilidad, a menos que se rediseñe todo el proceso. Asimismo, el comportamiento del proceso puede describirse como una distribución. Dicha distribución se caracteriza por lo general a partir de su media, su expansión y su forma. El Apéndice proporciona información más detallada sobre las principales funciones de distribución. La variabilidad anormal se debe a causas asignables o causas especiales provocadas por situaciones externas al diseño del proceso. Las causas asignables son impredecibles y perturban el estado de equilibrio del proceso, en donde sólo existen causas comunes; el resultado es un cambio impredecible en los parámetros de la curva de distribución de las salidas del producto o servicio. Aunque las causas asignables suelen ser pequeñas en número, cada una de ellas tiene un efecto significativo en el desempeño del proceso. 312 Capítulo 12 Ingeniería y control de la calidad En términos generales, la misión del ingeniero es identificar si las causas de variabilidad son normales o anormales, y posteriormente eliminarlas o disminuirlas. Para ello se requieren herramientas de análisis y técnicas de control estadístico de procesos, como las que se muestran en las siguientes secciones. 12.3 Herramientas para analizar y registrar la variabilidad Existe una serie de herramientas utilizadas para analizar variabilidades a partir de una serie de datos reunidos y una propuesta para organizarlos y presentarlos. Las siguientes secciones introducen algunas de las herramientas más comunes y las ilustran con un ejemplo: la producción de un mueble de oficina. Hojas de registro. Suponga que la empresa fabricante de muebles ha contratado a una empresa de medios para que realice una encuesta para identificar los principales defectos identificados por los poseedores de los últimos 1000 muebles de oficina que se han vendido. Los resultados de la encuesta se muestran en la figura 12.2. Entre los principales defectos ilustrados en la hoja de registros figuran la decoloración del mueble, la mala calidad en el servicio, el tiempo de entrega, el precio del producto y algunos casos de rotura. Gráficas de Pareto. Sin embargo, se observa que sólo una porción de los 1000 clientes entrevistados identificaron defectos en el mueble de oficina. También se observa que la mayor parte de las quejas corresponden a un solo tipo de defectos: la decoloración del mueble. Este resultado es comúnmente conocido como el principio de Pareto o el principio 80-20, en donde se establece que 80% de los defectos estarían relacionados con sólo 20% de los tipos de defecto. En la figura 12.3 se observa que más de 40% de los defectos identificados corresponden a la decoloración; asimismo, más de Tipo de defecto Tiempo de respuesta Costo Rotura Calidad en el servicio Decoloración FIGURA 12.2 Hojas de registro Número de unidades de flujo defectuosas Número de quejas 25 100 20 80 15 60 10 40 5 20 0 Porcentaje acumulado 313 12.3 Herramientas para analizar y registrar la variabilidad 0 Decoloración Calidad en el servicio Tiempo de respuesta Costo Rotura Tipo de problema FIGURA 12.3 Diagramas de Pareto 70% del total de defectos corresponden a decoloración o calidad en el servicio. Un ingeniero encargado de disminuir los problemas asociados a los muebles defectuosos deberá enfocar sus recursos inicialmente en las principales causas del problema, es decir, dejar a un lado los problemas originados con el tiempo de respuesta, el precio del producto o las roturas. Histogramas. La variabilidad de un sistema o producto también suele medirse a partir de curvas de distribución de frecuencias que indican el comportamiento de una muestra de productos. Las dos medidas básicas a caracterizarse son la media, definida como el valor esperado alrededor del cual la distribución está centrada, y la desviación estándar, que representa qué tan amplia o esparcida es la distribución alrededor de la media. El Tipo de problema 14 12 Frecuencia (%) 10 8 6 4 2 0 36 FIGURA 12.4 Histogramas 37 38 39 40 41 42 Peso del mueble (kg) 43 44 45 46 Capítulo 12 Ingeniería y control de la calidad 45 Peso (kg) 314 42.5 40 37.5 35 1 5 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 Tiempo FIGURA 12.5 Gráficas de corridas (run chart) Apéndice del libro incluye una explicación más detallada sobre las funciones de distribución. En la figura 12.4 se observa un histograma que representa el peso del mueble de oficina. Conforme a los resultados se muestra que 14% de los muebles pesan 41.5 kg, mientras que 11% pesan 42 kg, y así sucesivamente. Un breve análisis estadístico de estos resultados indicaría que la media del peso del mueble es de 41.2 kg, con una desviación estándar de 2.08 kg. Gráficas de corridas (run charts). Las herramientas anteriores son útiles para analizar las salidas de producto en determinados procesos. Sin embargo, tienen la limitante de excluir una de las variables más importantes: el tiempo. Las gráficas de corridas son una herramienta complementaria para el estudio de variabilidades, con la particularidad que describe la variabilidad de un sistema con respecto al tiempo, y permite distinguir variabilidades inherentes a la estructura del proceso, como puede ser la estacionalidad. Así pues, la figura 12.5 representa los valores promedio del peso del mueble medidos en los últimos 19 días de producción. A pesar que los valores promedio de cada día fluctúan alrededor de los 40 kg, se observa que en algunos casos llegan a ser mayores a 45 kg o menores a 37.5 kg, lo que provoca productos de mala calidad. Gráficas multivariables. Un análisis más detallado del peso del mueble puede obtenerse a partir de gráficas multivariables, en donde el promedio sea sólo una referencia y se complemente con los valores máximos y mínimos ocurridos cada día. Así, con este tipo de gráficas el ingeniero podría analizar dos medidas de variabilidad: la variabilidad del peso del mueble en los últimos 19 días, y la variabilidad en el peso del mueble cada día. La figura 12.6 incluye un ejemplo en donde se muestran tres valores para cada día evaluado. El valor del centro representa el promedio, mientras que los extremos corresponden a los valores máximos y mínimos que fueron detectados a lo largo de cada día. Las cinco herramientas anteriores 12.4 Control estadístico de procesos 315 Peso (kg) 45 42.5 Máximo Promedio Mínimo 40 37.5 35 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Día FIGURA 12.6 Gráficas multivariables son entradas de información indispensables para todo ingeniero encargado de controlar y mejorar los procesos. 12.4 Control estadístico de procesos Una de las técnicas estadísticas más aplicadas en la ingeniería industrial para determinar si el resultado de un proceso concuerda con el diseño del producto o servicio correspondiente, es el Control Estadístico de Procesos (SPC, por sus siglas en inglés). El objetivo del SPC es identificar y eliminar las causas de variabilidad. Anteriormente se explicó la existencia de variabilidades normales y anormales. En términos estadísticos, la variabilidad normal del desempeño de un proceso suele representarse conforme alguna función de distribución con parámetros conocidos, entre las que destacan aquellas mostradas en el Apéndice. Por otro lado, la variabilidad anormal ocurre cuando los parámetros de la función de distribución (por ejemplo, su media, esperanza o varianza) cambian de manera incierta. Conforme a lo anterior, el ingeniero industrial debe trazar ciertas tareas y objetivos de control y disminución de variabilidades para el corto y mediano plazos. Las actividades a mediano plazo están orientadas a la variabilidad normal del proceso, por lo que el ingeniero deberá identificar soluciones que disminuyan esta variabilidad y mejoren la precisión del proceso. Ésta no suele ser una tarea rápida y directa, sino que, por lo general, requiere de mayores inversiones en recursos y tiempo, en relación con las actividades de corto plazo. Invariablemente, se requiere de la participación de mandos medios o superiores dispuestos a aprobar inversiones o modificaciones en el diseño del producto, la arquitectura del proceso o la distribución de recursos. 316 Capítulo 12 Ingeniería y control de la calidad Por otro lado, en el corto plazo las actividades del ingeniero de planta y su equipo de trabajo pueden resumirse en: 1. Seleccionar un proceso y estimar la variabilidad normal. 2. Decidir si acepta la variabilidad del proceso como normal. 3. Identificar la presencia de variabilidad anormal en el desempeño del proceso. 4. Aislar y eliminar cualquier causa de variabilidad anormal. Para cumplir con los cuatro puntos anteriores, es necesario definir una política de límite de control para el proceso, así como utilizar gráficas de control. Ambos conceptos se explican a continuación. Política de límite de control. En la medida que se monitorea el desempeño de un proceso, es posible observar si la variabilidad en su desempeño se debe a causas normales o anormales. En caso que las variabilidades sean normales, se dice que el proceso está bajo control y que el ingeniero acepta las variabilidades como una consecuencia esperada del proceso. En contraste, si la variabilidad del proceso es anormal (debida a una causa identificable), se dice que el proceso está fuera de control. En este caso, será necesario detener el proceso, remover las causas anormales de variabilidad y reiniciar el proceso. Las decisiones respecto al tipo de variabilidad de un proceso requieren como referencia una política de límite de control. Conforme a esta política (también conocida como banda de control), se establece el intervalo o los valores máximo y mínimo dentro de los cuales se considerará a un proceso como bajo control. En su sentido más básico, la banda de control representa el intervalo de variabilidad aceptable. Como se mencionó, existen varias funciones de distribución, presentadas en el Apéndice, que pueden emplearse para describir la variabilidad en el desempeño de un proceso. Dentro de las distribuciones suele emplearse una aproximación dada por la Media m 3s FIGURA 12.7 Distribución normal 2s 1s 1s 68.26% 95.44% 99.74% 2s 3s 12.4 Control estadístico de procesos 317 función normal y su tabla de valores, comúnmente encontrada en los libros. En la figura 12.7 se presentan los porcentajes de valores que están ubicados dentro de ciertos intervalos de distribución normal. Por ejemplo, se observa que el 68.26% de la muestra analizada en el proceso tendrá valores dentro de una desviación estándar de ±1 de la media de distribución. Esta propiedad de las distribuciones normales es aprovechada en el análisis de gráficas de control. Gráficas de control. En el control estadístico de procesos, se define cuantitativamente el intervalo de variabilidades aceptable con respecto a un valor promedio, definido como m. Los valores máximos y mínimos que limitan el intervalo se definen tomando en cuenta el grado de control deseado para el proceso, el cual suele representarse como z. Mientras más pequeño sea el valor de z, mayor será el grado de control. Una vez establecido el grado de control, se define el número de desviaciones estándar (s) con respecto a la media, que serán consideradas como aceptables y, en consecuencia, como los límites de la banda de control. El límite de control máximo y el límite de control mínimo (UCL y LCL, respectivamente y por sus siglas en inglés) están definidos en las siguientes fórmulas: UCL m zs LCL m zs El resultado de estas dos fórmulas y la media del proceso es una gráfica de control como la que se muestra en la figura 12.8. Las medidas de desempeño ubicadas fuera de los límites (superior o inferior) de control, indicarán que el proceso se encuentra fuera de control y que es necesario identificar las causas anormales y corregirlas. El costo requerido para controlar el proceso será determinante en la selección del grado de control, z. Valores de z más pequeños implican mayores posibilidades que alguna lectura del proceso esté “fuera de control”, lo m 3s Límite superior de control (UCL) Media del proceso, m 99.74% m 3s Límite inferior de control (LCL) FIGURA 12.8 Gráfica de control Tiempo Señal de que ha ocurrido una causa especial (anormal) 318 Capítulo 12 Ingeniería y control de la calidad que puede provocar que el proceso sea analizado y corregido demasiadas veces. Esto tiene como consecuencia una mayor asignación de recursos (personal, tiempo y dinero), lo cual no necesariamente mejora el proceso ni cumple más eficientemente con las expectativas del cliente. Una correcta determinación de z requiere balancear los costos de investigación asociados a las ocasiones en que el proceso se encuentre “fuera de control”, con los beneficios esperados por implementar mecanismos de control que repercutan en un alto porcentaje de productos dentro de las especificaciones. Uno de los valores de z comúnmente empleados es z 3. La razón para asignar este valor es que en caso que el comportamiento del proceso se ajuste a una distribución normal, se tendrá que 99.73% de las observaciones se ubican dentro del intervalo de control (véase figura 12.7). Suposiciones similares pueden establecerse para otras distribuciones de probabilidad, como las que se indican en el Apéndice. Para el caso particular del mueble que se está estudiando, se encontró anteriormente una media m 42.2, y una desviación estándar s 2.08. Por lo tanto, los límites de control estarán dados a partir de las siguientes ecuaciones: UCL 42.2 3(2.08) 48.44 kg LCL 42.2 3(2.08) 35.96 kg Algunos estudiantes se habrán dado cuenta que el concepto de límites de control presentado en esta sección es análogo al de los intervalos de confianza y las pruebas de hipótesis que se llevan a cabo en la materia de estadística. En otras palabras, se establece inicialmente como hipótesis nula que el proceso está bajo control (es estable) en una media, m; la hipótesis alternativa es que la media del proceso se ha movido a otro valor. La regla de decisión es aceptar la hipótesis nula y no llevar a cabo ningún cambio en el proceso debido a que está bajo control. Por otro lado, si alguno de los valores del proceso se ubica fuera del intervalo definido por los límites de control, entonces se rechazará la hipótesis nula y se procederá a eliminar las anormalidades. La figura 12.9 muestra algunos ejemplos sobre patrones comúnmente encontrados en las gráficas de control, así como sus posibles causas. Es importante destacar que aunque esta regla de identificación de variabilidades es válida en la mayoría de las veces, puede ocurrir que un proceso salga de control debido a causas normales, por lo que es necesario revisar constantemente y de manera crítica el desempeño del proceso para identificar y atacar este tipo de errores, lo cual bien puede hacerse con base en diagramas causa-efecto. La tarea del ingeniero puede representarse en la figura 12.10. Así, en el corto plazo la prioridad será eliminar las fuentes de variabilidad que provocan que el proceso esté fuera de control y lograr la transición hacia un pro- 319 12.4 Control estadístico de procesos Patrón Descripción Causas probables Normal Variación aleatoria Falta de estabilidad Causas especiales (o asignables): herramienta, material, operario, sobrecontrol Tendencia acumulativa Desgaste de herramientas Cíclico Diferentes turnos, fluctuaciones de voltaje, efectos estacionales FIGURA 12.9 Patrones usuales en gráficas de control Peso Proceso fuera de control Proceso bajo control Proceso mejorado Límite superior de control (UCL) Media del proceso, m Límite inferior de control (LCL) Tiempo FIGURA 12.10 Control y mejora de procesos 320 Capítulo 12 Ingeniería y control de la calidad ceso estable y bajo control. En el largo plazo se busca mejorar el proceso y ser más estrictos en cuanto al intervalo de variabilidad que será tolerado. Esto implica toda una serie de tareas estructuradas conforme a un proyecto y comúnmente implementadas bajo la metodología Six Sigma, la cual se explica más adelante en este capítulo. Por ahora, queda identificar las posibles causas de variabilidad y las relaciones causa-efecto asociadas al producto o servicio final. Diagramas causa-efecto. También conocido como diagramas de “espina de pescado” o “diagrama de Ishikawa”, debido al nombre de su desarrollador. En este tipo de diagramas se suele colocar en la “cabeza del pescado” el principal problema de calidad que se requiere analizar. Asimismo, las “espinas principales del pescado” representan las categorías más importantes de causas potenciales, mientras que las “espinas menores del pescado” corresponden a causas específicas y probables asociadas a una categoría. La figura 12.11 representa un diagrama causa-efecto. Es importante notar que el resultado de los diagramas de pescado son relaciones cualitativas (o hipótesis) sobre el efecto de una causa en el desempeño de un proceso. Por lo tanto, es indispensable comprobar cada una de estas hipótesis y establecer cuantitativamente cada posible relación. Esto puede lograrse a partir de los diagramas de dispersión. Diagramas de dispersión. La figura 12.12 muestra cómo se relacionan dos variables entre sí. Cada punto del diagrama representa una observación distinta, y conforme al ejemplo particular del peso del mueble, se interpreta que el peso final del producto depende linealmente de las especificaciones establecidas para el grosor de la lámina que forma parte de la estructura del mueble. Como consecuencia, el ingeniero podrá estudiar nuevamente las especificaciones de la lámina y su efecto en el producto. Medición Falla de equipo de prueba Especificaciones incorrectas Humano Máquina Problema principal Proceso Material FIGURA 12.11 Diagrama causa-efecto (espina de pescado) 12.5 Medición de la habilidad de un proceso 321 Peso del producto (kg) FIGURA 12.12 Diagrama de dispersión Especificaciones (mm) 12.5 Medición de la habilidad de un proceso La habilidad de un proceso (capability) es definida como la capacidad para cumplir con los requerimientos del cliente. Existen varias formas de medir la habilidad del proceso, entre las que destacan: la fracción de productos dentro de las especificaciones y las razones de capacidad del proceso. Fracción de productos dentro de las especificaciones. Se refiere a la fracción de productos cuyas especificaciones están dentro de los límites máximo y mínimo (LMax y LMin, respectivamente). Esta cantidad puede calcularse directamente a partir de observaciones y registros y utilizando distribuciones estadísticas de probabilidad. Nuevamente, la variabilidad del proceso (y no sólo el desempeño promedio) repercute directamente en la habilidad del proceso y, en consecuencia, en el nivel de satisfacción del cliente. En otras palabras, al cliente no le importa que un alto porcentaje de los productos cumpla con las especificaciones, sino sólo el hecho que el producto que adquirió salió defectuoso. La labor del ingeniero será asegurarse que un porcentaje muy pequeño de los productos (¡puede ser incluso de 1 en cada 1000 millones de productos!) resulte con algún defecto. Razones de capacidad del proceso, Cp y Cpk. Se parte del supuesto que la mayoría de los valores de una distribución del proceso se encuentran dentro de más o menos tres desviaciones estándar de la media. En consecuencia, se dice que un proceso es capaz, cuando la diferencia entre la especificación superior e inferior (LMax y LMin), conocida también como la amplitud de la tolerancia, es mayor a seis desviaciones estándar. En un proceso centrado en la media del intervalo de especificaciones, se tendrá una razón de capacidad del proceso, Cp, definida conforme a la siguiente ecuación: 322 Capítulo 12 Ingeniería y control de la calidad Cp [LMax LMin]/[6s] Para el ejemplo del mueble, si supone que las especificaciones superior e inferior fueran 45 y 35 kg, respectivamente, y que la media del proceso estuviera centrada en 40 kg, se tendría un Cp [(45 35)/(6 * 2.08)] 0.80. La interpretación de esta fórmula tiene implicaciones muy prácticas para el ingeniero industrial. El numerador especifica el intervalo de variabilidad que el cliente está dispuesto a tolerar (también conocido en la literatura como la “voz del cliente”), mientras que el denominador indica el nivel de variabilidad asociado al desempeño del proceso (“voz del proceso”). En caso que Cp sea mayor a 1.0, se tendrá que la amplitud de la tolerancia es mayor que el intervalo real observado; mientras que si Cp es menor a 1.0, se concluirá que el proceso genera productos o servicios fuera de su tolerancia permisible, lo cual es el caso particular del ejemplo del mueble. El otro indicador de capacidad de un proceso se denota como Cpk e indica el potencial del proceso para generar productos en relación con la especificación superior e inferior, sin importar que el proceso esté centrado en el valor medio del intervalo de especificaciones. Este indicador toma en cuenta el desempeño del proceso con respecto a cada una de las especificaciones y se define en la siguiente ecuación: Cpk Mínimo [(LMax m)/3s, (LMin m/3s)] Es necesario elegir el valor mínimo entre las dos relaciones que se indican en la fórmula, ya que representaría el peor caso posible. La interpretación de Cpk es similar que en el caso anterior; es decir, si Cpk es mayor a 1.0 significa que el proceso es capaz de producir al menos 99.73% de sus productos o servicios dentro de las especificaciones. En contraste, un Cpk menor a 1.0 indica que el promedio del proceso se encuentra cerca de alguno de los límites de tolerancia y, por lo tanto, se suscitan muchos defectos en los productos o servicios. La siguiente tabla sirve de referencia y muestra una relación entre el radio de capacidad del proceso (Cp) y la cantidad de defectos (en partes por millón) que ocurren. Se observa que un proceso con un Cp igual a 1.0, es decir, con 99.73% de las observaciones dentro un intervalo de ±3s, presentará 3000 defectos por cada millón de productos, mientras que un proceso con Cp igual a 2.0 sólo presentará dos defectos por cada billón de productos. Este estándar tan alto de calidad se justifica plenamente para varios procesos, tal y como se explica en la sección de Six Sigma. Cp Defectos (ppm) 0.86 1 1.1 1.3 1.47 1.63 2 10 000 3000 1000 100 10 1 0.002 12.6 Six Sigma 323 12.6 Six Sigma Se trata de una iniciativa de negocios adoptada desde la década de 1990 por varias compañías, entre las que destacan General Electric, Motorola y Sony. Esta iniciativa cobró reconocimiento rápidamente debido a los ahorros en costos y al incremento sustancial en la calidad de los productos y servicios. En palabras de Jack Welch, Director Ejecutivo mundial de la empresa General Electric: “Six Sigma es la iniciativa más redituable y uno de los retos más importantes en toda la historia de General Electric” (Lowe, 1998). Conforme al reporte anual de 1997 de la compañía, se observa que la implementación de Six Sigma en ese año representó más de 300 millones de dólares de ingreso (Breyfogle, 1999). En varias organizaciones Six Sigma significa una medida de calidad y una serie de esfuerzos orientados a operar procesos prácticamente perfectos. Six Sigma es una metodología basada en información y análisis estadístico que busca eliminar los defectos de un proceso, lo cual se logra al operar bajo un estándar de seis desviaciones estándar entre la media del proceso y el límite de especificaciones más cercano. Los beneficios de esta iniciativa se han hecho extensos a prácticamente todas las empresas trasnacionales y a varias empresas medianas y pequeñas orientadas a las áreas de productos y servicios. La incorporación de esta iniciativa es hoy en día una práctica común e incluso existen institutos que certifican a los practicantes de Six Sigma, típicamente bajo los conceptos de “Black Belts”, “Change Agents” o “Trailblazers”, dependiendo de la compañía y la estrategia adoptada. Pero más allá de las dificultades aparentes de alcanzar un estándar tan alto como el de Six Sigma, en donde sólo habría un defecto por cada 1000 millones de unidades, tendría que haber antes una serie de justificaciones para llevar a cabo estos esfuerzos; en otras palabras, se debería responder a la pregunta de ¿por qué convendría operar bajo la filosof ía de Six Sigma? La primera razón de peso está relacionada con el perfil del proceso y el impacto de un bajo estándar de operación. Para ejemplificar esta parte, se presenta a continuación un listado de equivalencias asociadas a los procesos en Estados Unidos que operan con 99% de nivel de calidad y que, sin embargo, tendrían los siguientes problemas (Breyfogle, 1999): • • • • • 20 000 artículos perdidos en el correo cada hora. 5000 cirugías erróneamente practicadas cada semana. 2 aterrizajes en extremo cortos o en extremo largos en la mayoría de los principales aeropuertos cada día. 200 000 prescripciones médicas erróneas cada año. 7 horas cada mes sin el servicio de electricidad. En otras palabras, lo que aparentemente era un alto estándar de calidad, representa en la realidad consecuencias catastróficas. 324 Capítulo 12 Ingeniería y control de la calidad La segunda razón de peso asociada a la adopción de la iniciativa Six Sigma se basa en que un componente de buena calidad no necesariamente significa un producto final de buena calidad, tal y como se describe en el siguiente ejemplo. Suponga que un producto está conformado por 100 componentes y cada componente tiene 99% de confiabilidad. Las posibilidades que todo el producto funcione conforme a las especificaciones son: (0.99)100 0.366; es decir, 36.6% (¡muy bajo!) Recuerde que aunque las partes individuales sean de muy buena calidad, lo importante es que el producto (todas las piezas) trabaje satisfactoriamente. El cliente percibe la calidad del producto, independientemente de cuál pieza es la que falló. Un proceso Six Sigma es aquel cuyas especificaciones son tan estrictas que corresponden a seis desviaciones estándar de la media, un Cp 2 (ver tabla anterior) y solamente dos defectos por cada 1000 millones de productos. La figura 12.13 muestra un comparativo para distintos números de desviaciones estándar con respecto a la media, desde 1s hasta 6s, incluyendo el porcentaje de unidades ubicadas dentro de las especificaciones y el número de defectos que ocurrirían por cada millón de unidades. Especificación superior Especificación inferior 6s 5s 4s 3s Límite de especificaciones 2s 1s Media m 1s Porcentaje 2s 3s 4s 5s Defectos (ppm) ± 1 sigma 68.27 317 300 ± 2 sigma 95.45 45 500 ± 3 sigma 99.73 2 700 ± 4 sigma 99.9937 ± 5 sigma 99.999943 0.57 ± 6 sigma 99.9999998 0.002 FIGURA 12.13 6s 63 325 12.7 Mejora en la habilidad de un proceso Ajustes por cambios en la media. En empresas como Motorola, dada la medición sigma la empresa calcula la fracción de defectos después de permitir un pequeño cambio en la media, equivalente a ±1.5 desviaciones estándar, en relación con el valor central en las especificaciones. Permitir este pequeño cambio tiene como consecuencia que un proceso Six Sigma produzca en promedio 3.4 defectos por cada millón de unidades, tal y como se ilustra en la siguiente tabla: Sigma 3 4 5 6 Cp 1 1.33 1.667 2 Defectos (ppm) 66 810 6210 233 3.4 La unidad de medición S-Sigma se define conforme a la siguiente fórmula: S (US LS)/2s y en el caso particular del mueble de oficina centrado en la media, con una desviación estándar de 2.08 y con unos límites superior e inferior de 45 y 35 kg, respectivamente, se tendría: S (45 35)/2(2.08) 2.40; es decir, un proceso 2.4-Sigma. Si observamos en la tabla anterior, se concluye que moverse de 3-Sigma a 4-Sigma representa una mejora de aproximadamente 10 veces. Asimismo, moverse de 4-Sigma a 5-Sigma representa una mejora de aproximadamente 30 veces (es decir, 6210/233 26.65). Finalmente, moverse de 5-Sigma a 6-Sigma representa una mejora de aproximadamente 70 veces. Se estima que la mayoría de las empresas opera procesos 4-Sigma, mientras que las mejores empresas en el mundo tienen estándares de calidad obtenidos mediante procesos 6-Sigma. 12.7 Mejora en la habilidad de un proceso Una vez determinada la habilidad del proceso para cumplir con las especificaciones de diseño, es posible efectuar mejoras en el mismo, así como cuantificar el impacto de éstas. Las formas comunes para mejorar la habilidad de un proceso son mover la media del proceso, tal y como se comentó en el caso de Motorola, reducir la variabilidad del proceso o una mezcla de ambas. Mover la media del proceso. Una vez descrita la distribución de probabilidad de las unidades de salida de un proceso, se observaría que la colocación de la media del proceso repercute directamente en el porcentaje de unidades de salida dentro de las especificaciones. Como se ilustra en la figura 12.14, en algunas ocasiones puede ocurrir que la media del proceso 326 Capítulo 12 Ingeniería y control de la calidad Densidad de probabilidad de peso del producto Peso (kg) LS = 37.5 40 41.2.5 US = 42.5 FIGURA 12.14 Cambio en las especificaciones de diseño (41.2 kg, según el ejemplo del mueble, y la figura 12.4) esté alejada de las especificaciones de diseño para el mismo. Mover la media del proceso a 40 kg, considerando que en la sección anterior se determinó que se trataba de un proceso 2.40-Sigma, provocaría un cambio en la proporción de muebles cuyo peso cumple con las especificaciones. La sugerencia para el ingeniero es analizar las salidas del producto y considerar la conveniencia de restablecer las especificaciones de diseño del producto o la media del mismo y provocar que ambos coincidan. La consecuencia de esto será que un mayor número de unidades cumplirá con las especificaciones. Cualquier mejora posterior en la habilidad del proceso se logrará disminuyendo la variabilidad del mismo. Reducir la variabilidad del proceso. Los beneficios asociados a reducir la variabilidad del proceso se observan en las figuras 12.15 y 12.16. Como Densidad de probabilidad del peso del producto FIGURA 12.15 Reducción de la variabilidad del proceso Peso (kg) LS = 37.5 40 US = 42.5 327 12.8 Las normas ISO 9000 e ISO 14000 Valor nominal 6-Sigma 4-Sigma 2-Sigma Especificación superior Especificación inferior Media FIGURA 12.16 Efectos de la habilidad de la disminución de la variabilidad del proceso puede observarse en ambas figuras, disminuir la variabilidad del proceso equivale a disminuir la desviación estándar del mismo y, en consecuencia, se tiene un mayor número de unidades de salida que caerán dentro del intervalo de especificaciones. Reducir la variabilidad de un proceso suele ser una tarea de mayor dificultad que la de mover la media del proceso, ya que requiere de observaciones, ajustes, pruebas y errores o estudios más detallados, por lo que, en lo general, es una responsabilidad del gerente de proceso e implica la adopción de proyectos Six Sigma y las características indicadas en la sección anterior. 12.8 Las normas ISO 9000 e ISO 14000 Los conceptos presentados anteriormente pueden ser incorporados en cualquier empresa proveedora de productos o servicios. Esta versatilidad en la implementación de la filosof ía y las herramientas de calidad ha obligado a la elaboración de estándares y mecanismos de certificación de calidad reconocidos internacionalmente. La ventaja principal detrás de estas certificaciones se basa en la premisa de que un producto o servicio de calidad requiere que todos sus componentes (y por ende, todos sus proveedores) sean realizados con el mismo alto estándar de calidad. En consecuencia, las empresas suelen recurrir a criterios internacionales para la selección de proveedores, entre los que destacan el cumplimiento y certificación de 328 Capítulo 12 Ingeniería y control de la calidad las normas ISO 9000 e ISO 14000 de la Organización Internacional para la Estandarización (ISO, por sus siglas en inglés). Conforme a lo registrado en septiembre de 2004 en la página web oficial de la ISO (www.iso.org), los estándares ISO 9000 e ISO 14000 han sido implementados por más de 634 000 organizaciones en 152 países. La familia de normas ISO 9000 se ha convertido en una referencia internacional para los requerimientos de calidad especificados en los acuerdos comerciales entre empresas, mientras que la familia de normas ISO 14000 se encuentra en el camino de lograr que las organizaciones cumplan con sus responsabilidades y oportunidades de mejora ambiental. ISO 9000. La familia de normas ISO 9000 se orienta principalmente a la gestión de la calidad. Esto significa que se analiza lo que debe hacerse para satisfacer plenamente los requerimientos de calidad del cliente y los requerimientos regulatorios necesarios, y al mismo tiempo, incrementar constantemente la satisfacción del cliente, la calidad y mejorar constantemente el desempeño de los procesos. Anteriormente, la familia de normas ISO 9000 estaba compuesta de cinco documentos principales: ISO 9000 a ISO 9004. Las normas ISO 9000 y la ISO 9004 son más generales; la primera contiene instrucciones generales para la selección y la implementación de estas normas, mientras que la última contiene instrucciones para interpretar correctamente las demás normas. Las normas ISO 9001, ISO 9002 e ISO 9003 son más específicas. La ISO 9001 abarca diversos aspectos necesarios en todo programa de calidad a implementarse en aquellas compañías que diseñan, fabrican, instalan y dan servicio a productos. Ésta es la norma más completa y, por lo tanto, la más dif ícil de cumplir. Por otra parte, la Norma ISO 9002 contiene aspectos similares a los de la norma anterior, pero se enfoca a compañías que elaboran sus productos de acuerdo con los diseños y requerimientos de cada cliente o realizan sus actividades de diseño y servicio en una ubicación f ísica distinta. Finalmente, la ISO 9003 se enfoca solamente en el proceso de producción y, por lo tanto, es la más limitada. Todavía existen muchas referencias y documentos relacionados con esta versión anterior de las normas ISO 9000, aunque cada día aumenta la necesidad por parte de las organizaciones para modificar su actual sistema de calidad y adoptar el nuevo modelo. Actualmente las normas ISO 9000 se encuentran agrupadas en una sola versión actualizada que incluye a las anteriores. Estas nuevas normas son llamadas ISO 9000: 2008 ya que remplazan la versión de 2000. Esta nueva versión tiene cuatro normas principales, ISO 9000 (Fundamentos y vocabulario), ISO 9001 (Requisitos), ISO 9004 (Guía para la mejora del desempeño) e ISO 9011 (Lineamientos guía para auditorías de calidad y ambientales). La nueva versión está dirigida a un mayor número de sectores que demandan sistemas de calidad, como son los servicios, la educación, investigación y desarrollo. Asimismo, la nueva versión marca mayor énfasis en la mejora continua como herramienta para incrementar la efi- 12.8 Las normas ISO 9000 e ISO 14000 329 ciencia y la eficacia, y finalmente, disminuye notablemente los requisitos de documentación, además de incluir un lenguaje más sencillo en la redacción de la norma. ISO 14000. La familia de normas ISO 14000 está relacionada con la gestión ambiental de la empresa, es decir, aquellas actividades que debe llevar a cabo la compañía para: minimizar los efectos adversos al medio ambiente causados por su actividad y lograr una mejora continua de su desempeño ambiental. La familia de normas ISO 14000 también es amplia y se subdivide principalmente en los siguientes grupos de normas: Sistemas de administración ambiental (Environmental Management Systems, EMS), es decir, lo necesario para lograr una mejora continua en términos de consumo de recursos y emisiones de contaminantes. Evaluación del desempeño ambiental (Environmental Performance Evaluation, EPE), en donde se especifica todo lo necesario para lograr la certificación. Nomenclatura ambiental (Environmental Labelling, EL), en este grupo de normas se proporcionan las definiciones oficiales de varios términos ambientales utilizados en las demás normas, como: reciclable, eficiente en términos de consumo de recursos y energía, no dañino a la capa de ozono, etcétera. Evaluación del ciclo de vida (Life Cycle Assessment, LCA), en donde se analiza y evalúa el desempeño ambiental de un sistema, tomando en cuenta toda la vida del producto, es decir, desde la extracción de materiales, pre-procesamiento, fabricación, uso, disposición final, reciclado, reutilización, etcétera. La duración de los procesos de certificación ISO 9000 e ISO 14000 es variada; dependiendo del tamaño de la empresa, puede llevar dos años o más. El costo de estas certificaciones va más allá del pago a los auditores, debe incluir el costo del tiempo dedicado por los empleados a las actividades de documentación (diagramas de flujo, programas de software, videocasetes y archivos electrónicos) y el costo incurrido por la implementación de prácticas de mejora continua. Por ejemplo, la empresa ABB Process Automation, Inc., fabricante de sistemas de control y automatización, tuvo que destinar 25 000 horas de trabajo en el curso de nueve meses, y $1.2 millones de dólares, incluida la suma de $200 000 por gastos de auditoría, para obtener la certificación ISO 9001 (Krajewski, 2002). Los beneficios principales son la aceptación de sus productos y servicios en un mayor número de mercados, además del prestigio que representa gozar de una certificación internacional sobre las prácticas de la empresa. Finalmente, es importante considerar que una vez que se cuente con la certificación, las empresas deberán ser inspeccionadas periódicamente por auditores externos para asegurarse que se mantiene la filosof ía y las prácticas de calidad y mejora continua. 330 Capítulo 12 Ingeniería y control de la calidad EJERCICIOS PROPUESTOS 1. Investigue y explique cuáles son los ocho principios de la gestión de calidad. 2. El dueño de un negocio de lavado de autos encuestó a sus clientes durante la semana para saber qué es lo que ellos consideran que debería mejorarse. A continuación los resultados: Votos Tiempo o espera Ubicación Horario Zona de espera Trato al cliente Precios Imagen local Calidad lavado 92 5 1 2 79 8 25 4 De igual forma, tomó el tiempo promedio por día que cada empleado tarda en lavar un auto de tamaño mediano: Día Empleado 1 Empleado 2 Empleado 3 Empleado 4 Empleado 5 1 23.6 25.3 29.6 25.6 23.8 2 25.2 24.2 28.6 24.2 24.5 3 24.6 24.4 23.1 23.7 23.9 4 24.5 23.1 26.3 24.7 22.4 5 23.4 24.9 23.4 23.4 24.2 6 25.4 24.1 29.5 24.8 22.2 Dibuje la gráfica de Pareto de los resultados de la encuesta. ¿Qué puede concluir? El dueño del negocio pretende ofrecer a sus clientes que su auto será entregado en máximo 26 minutos (cumpliéndose al menos 95%), ¿es esto posible? Realice la gráfica de control de los tiempos con z 2. ¿Existe algún empleado que esté trabajando ineficientemente con respecto a los demás? 3. Explique con sus propias palabras en qué consiste Six Sigma. Referencias Anupindi, R., Chopra, S., Deshmukh, S. D., Van Mieghem, J. A. y Zemel, E. (1999). Managing Business Process Flows. Prentice Hall, Estados Unidos. Breyfogle, F. W. (1999). Implementing Six Sigma. Smarter Solutions Using Statistical Methods. John Wiley and Sons, Estados Unidos. Referencias Deming, W. E. (2000). Out of the Crisis. MIT Press, Estados Unidos. Deming, W. E. (2000). The New Economics. For Industry, Government, Education, 2a. Ed. MIT Press, Estados Unidos. Evans, J. R. (1991). Statistical Process Control for Quality Improvement. A Training Guide to Learning SPC. Prentice Hall, Estados Unidos. Gaal, A. (2001). ISO 9001:2000 for Small Business. Implementing Process Approach Quality Management. CRC Press LLC, Estados Unidos. Hauser, J. y Clausing, D. (1988). “The House of Quality”, en Harvard Business Review, mayojunio, pp. 63-73. International Organization for Standardization, ISO. (2000). ISO 9000:2000 (E). Quality Management Systems – Fundamentals and Vocabulary, 2a. Ed. Suiza. Juran, J. M. y Blanton G. A. (1998). Juran’s Quality Handbook, 5a. Ed. McGraw-Hill, Estados Unidos. Krajewski, L. y Ritzman, L. (2002). Administración de operaciones. Estrategia y análisis, 5a. Ed. Prentice Hall. 331 Lowe, J. (1998). Jack Welch Speaks. John Wiley and Sons, Estados Unidos. Mitra, A. (1998). Fundamentals of Quality Control and Improvement, 2a. Ed. Prentice Hall, Estados Unidos. Monden, Y. (1990). El sistema de producción de Toyota. Instituto de Altos Estudios Empresariales, Pricewaterhouse, Editorial Macchi, Buenos Aires, Argentina. Nahmias, S. (2003). Production and Operations Management, 4a. Ed. McGraw-Hill. Romero, S. y Romero, O. (2003). “Carrera contra el tiempo. Innovación y desarrollo dinámico de productos”, en Dirección Estratégica, ITAM, Núm. 6, Año 2, pp. 45-49. Spear, S. y Bowen, H. K. (1999). “Decoding the DNA of the Toyota Production System”, en Harvard Business Review, septiembre-octubre, pp. 97-106. Taguchi, G. y Clausing, D. (1990). “Robust Quality”, en Harvard Business Review, enero-febrero, pp. 65-75. CAPÍTULO 13 AUTOR: Dr. David Muñoz Negrón Diseño de planta 13.1 Planeación de un estudio de diseño de planta 13.2 Localización de plantas, almacenes y servicios dentro de la planta 13.3 Disposición de planta Antes de tomar alguna decisión sobre la tecnología, la infraestructura y, en general, sobre el diseño del sistema de producción, debemos reconocer que la tecnología de proceso y la infraestructura disponible en la empresa deben mantener una estrecha relación con la estrategia de la misma. Las consideraciones estratégicas, como el volumen de producción, el mercado meta y el nivel de flexibilidad para producir nuevos diseños, deben determinar las características de los procesos y la tecnología que conviene implantar. Por ejemplo, la disposición de una planta determina, en gran medida, cómo está organizada la empresa para responder a las exigencias del mercado, ya que si la empresa tiene un producto dirigido a un mercado de alta demanda, puede ser conveniente dedicar una línea exclusivamente para la manufactura del mismo, en vez de conducir la manufactura del producto a través de unidades funcionales que producen diferentes productos, dado que esto generaría costos innecesarios por transporte y apertura de procesos. En este capítulo presentamos los principales conceptos y técnicas que deben tenerse en cuenta para alinear el proceso de diseño del sistema de producción con la estrategia competitiva de la empresa, con el objetivo de obtener ventajas competitivas en calidad, productividad y utilización de recursos. El capítulo inicia con la introducción de los elementos que deben considerarse en el proceso de planeación y diseño del sistema de producción (área llamada diseño de planta). Posteriormente se revisan las técnicas 334 Capítulo 13 Diseño de planta y los aspectos específicos que deben considerarse en el diseño de una planta, desde el punto de vista de ingeniería industrial, como la localización y la disposición de la planta. 13.1 Planeación de un estudio de diseño de planta Existen varias razones para estar interesados en analizar el diseño y la disposición de las instalaciones de una planta. En primer lugar, esta necesidad surge cuando se decide instalar una nueva planta y se quieren aprovechar al máximo los recursos de que se dispone. Sin embargo, existen otras situaciones en las cuales se podría realizar este tipo de análisis, por ejemplo: • • • • Si se toma la decisión de desarrollar nuevos productos en la planta o dejar de producir algunos. Si se introducen cambios en el diseño de los productos, los cuales originan un cambio necesario en el sistema de producción, ya sea por la introducción de nuevos procesos, por la eliminación de algunos de ellos o por cambios en la secuencia de los procesos. Si se observa un cambio significativo en los patrones de demanda de los productos, que promueve un cambio en los niveles de producción. Si se decide introducir cambios administrativos estratégicos que afectan la operación de la planta; por ejemplo, si se decide centralizar la distribución de los materiales (insumos, repuestos y herramientas) en un almacén central, remplazando una administración descentralizada por departamentos o talleres. El diseño de una planta comprende, fundamentalmente, tres aspectos: la infraestructura, las instalaciones y el sistema de manejo de materiales. La infraestructura consiste en el local, su ubicación y los servicios disponibles (agua, luz, fuentes de energía, etc.). Las instalaciones se componen del equipo, la maquinaria y el mobiliario requerido para llevar a cabo los procesos de producción y de apoyo a los mismos; el diseño de las instalaciones comprende tanto la organización de las mismas en unidades —talleres y departamentos— como la disposición f ísica de las unidades para lograr los objetivos de producción, buscando niveles adecuados de calidad, productividad y de utilización de recursos. El sistema de manejo de materiales consta de los mecanismos que permiten la interacción de todas las unidades de la planta (medios de transporte y comunicación). Como podemos imaginar, el diseño de una planta se puede ver desde la perspectiva de las diferentes áreas que participan en él: arquitectura, ingeniería mecánica, ingeniería civil, ingeniería industrial, etc., aunque en este capítulo nos enfocamos en las técnicas para diseñar y evaluar la disposición de una planta, su localización y su habilidad para responder a las exigencias del mercado, aspectos 13.1 Planeación de un estudio de diseño de planta FIGURA 13.1 Pasos de un estudio de diseño de planta 335 Localización y estrategia Procesos y actividades Vínculos departamentales Requerimientos de espacio Alternativas de disposición Evaluación de alternativas Selección de la disposición Implantación y mantenimiento más relacionados con la ingeniería industrial. A continuación presentamos una visión general del proceso de diseño de una planta. Pasos de un estudio de diseño de planta. Como ya se mencionó, el diseño y la disposición de las instalaciones de una planta afectan significativamente su desempeño, por lo que debemos planear cuidadosamente este proceso. En la figura 13.1 sugerimos una secuencia de pasos necesarios para diseñar una planta, desde el punto de vista de la ingeniería industrial. A continuación detallamos los elementos sugeridos en este proceso. 1. Localización y estrategia: un estudio de diseño de planta debe empezar por considerar la localización y las estrategias de la empresa que serán apoyadas con las instalaciones adecuadas. Deben tomarse en cuenta las estrategias de las áreas de mercadotecnia, manufactura, distribución, compras, manejo de materiales e informática, entre otras, considerando que un diseño de planta inadecuado puede impedir la implantación de algunas de las estrategias de la empresa. Por ejemplo, un plan agresivo de mercadotecnia podría no conseguir el objetivo final (mayores ventas), si encontramos que no existe la capacidad de producción para atender la demanda y que la expansión de la capacidad es lenta. El sistema de manejo de materiales debe considerar decisiones estratégicas, como las unidades de volumen, los volúmenes de producción, el tipo de empaque y el nivel de automatización, entre otras. Similarmente, la localización y la disposición de la planta deben tomar en cuenta consideraciones estratégicas, como: tiempos de respuesta a los pedidos, tipo de tecnología de proceso, tamaño de los lotes de producción, niveles de inventario del material en espera, restriccione de capital, estructura organizacional y nivel deseado de servicio a los clientes. 336 Capítulo 13 Diseño de planta 2. Procesos y actividades: el segundo punto a considerar para el diseño de la planta lo constituyen las características de los productos y de los procesos que deben realizarse en ella. Se deben tomar en cuenta los diagramas de diseño y de ensamble de los productos, la maquinaria, el equipo y la tecnología de proceso, así como el nivel de flexibilidad que se requiere para renovar el diseño de los productos y variar los volúmenes de producción. Esta información permite establecer las actividades que deben realizarse en la planta y la forma como se deben conducir. Es necesario indicar que para los propósitos del diseño de planta las unidades de planeación no son necesariamente unidades administrativas de la estructura organizacional de la empresa, sino unidades que, a menudo, se denominan departamentos de planeación, y se definen como grupos de estaciones de trabajo que serán considerados como una unidad en el proceso de diseño de la disposición de la planta. Un departamento de planeación puede o no coincidir con un departamento o unidad de la estructura organizacional de la empresa. 3. Vínculos departamentales: la interacción (vínculos departamentales) entre los diferentes departamentos de planeación constituye la base para tomar decisiones en el proceso de diseño de la planta. La información necesaria para describir estas interacciones puede encontrarse en los diagramas de flujo y de ensamble para la manufactura de los productos, en los organigramas y en los planes de producción. Es conveniente cuantificar estas interacciones, por ejemplo, indicando los volúmenes (mensuales o anuales) de materiales que se transportarán de un departamento a otro o el número de operaciones de coordinación que se espera entre departamentos por unidad de tiempo. Asimismo, existen diferentes elementos que deben considerarse para describir la interacción entre los departamentos. A continuación exponemos las principales categorías de factores relevantes para el estudio de diseño de una planta. • • • Flujo de materiales, personas, equipo y de información entre los departamentos de planeación o las estaciones de trabajo. Relaciones de tipo organizacional, que son consecuencia de actividades de control, supervisión, delegación de funciones o subordinación entre funcionarios o empleados de la empresa. Modalidades de los sistemas de control; por ejemplo, el tipo de control de los materiales (centralizado o descentralizado), el sistema de control de los inventarios (revisión continua o periódica), las modalidades para el procesamiento de las órdenes de producción (producción en masa o por lotes, reglas para asignar prioridades) y los niveles de automatización para el control de la calidad en los procesos, entre otras. 13.1 Planeación de un estudio de diseño de planta • • 337 Consideraciones para la protección del medio ambiente, entre las que se pueden mencionar: reglas para la seguridad de los trabajadores, temperatura, ruido, humedad, condiciones de limpieza y medios de desecho apropiados. Factores no considerados anteriormente, como requerimientos especiales para el manejo de materiales, para el tratamiento de desechos químicos o para la implantación de servicios especiales requeridos (por ejemplo, purificación del agua). 4. Requerimientos de espacio: éste es uno de los pasos en los que debe tenerse especial cuidado, ya que los requerimientos de espacio generalmente se planean para un horizonte de cinco a diez años, por lo que existe una incertidumbre relativamente alta en cuanto a la capacidad de producción requerida. Por lo mismo, se recomienda planear de abajo hacia arriba, es decir, determinar los requerimientos de espacio para las estaciones de trabajo, agregar requerimientos para obtener los de los departamentos de planeación y, finalmente, los de la planta en su conjunto. El espacio de una estación de trabajo está determinado por el espacio para el equipo (incluyendo el movimiento de las máquinas y el espacio requerido para el mantenimiento), para el manejo de materiales (recibo, almacenamiento, material de embalaje, herramientas, etc.) y para el personal (operadores, espacios para ingreso y salida, etc.). La definición del espacio para una estación de trabajo puede estar apoyada en un estudio de movimientos (término que proviene del inglés motion study), considerando factores importantes, como: • • • • • Permitir que el operador recoja y desplace los materiales sin tener que realizar esfuerzos innecesarios (por ejemplo, caminar). Permitir que el operador logre niveles altos de productividad y de eficiencia. Tratar de minimizar el tiempo que se pierde en el manejo manual de materiales y equipos. Lograr un trabajo libre de riesgos y proporcionar la máxima comodidad para los técnicos u operadores. Eliminar las condiciones de peligro o de fatiga (por ejemplo, mental o visual). Una vez que se determinan los espacios para las estaciones de trabajo, éstos pueden agregarse para definir los espacios que requerirán los departamentos de planeación, considerando los espacios para los servicios comunes a las estaciones (baños, pasillos, depósitos, manejo de materiales, entre otros). 5. Alternativas de disposición: teniendo en cuenta que el logro de un buen diseño de planta tiene algo de arte y algo de ciencia, debemos 338 Capítulo 13 Diseño de planta tratar de generar el mayor número posible de (buenas) alternativas de disposición, ya que ésta es justamente la parte artística. Las alternativas surgen al considerar diferentes maneras, tanto para la disposición física de los departamentos de planeación como para el manejo de materiales y la disposición de las estaciones de trabajo dentro de los departamentos. 6. Evaluación de alternativas: las alternativas de la disposición y del diseño de la planta pueden evaluarse con la ayuda de diferentes modelos (por ejemplo, simulación). Además, existe una gama de programas de software disponibles para este propósito, en los que el criterio de costos de operación es el más difundido para comparar las alternativas de la disposición y el diseño de la planta. 7. Selección de la disposición: se deben establecer los criterios de selección y, en la medida de lo posible, efectuar una evaluación cuantitativa de los mismos. Es necesario tener en cuenta que el costo de operación e instalación no es el único criterio. La evaluación de los criterios depende de los diferentes escenarios que pueden presentarse en cuanto a los volúmenes de producción que se requerirán y en cuanto a la flexibilidad requerida para la innovación de productos, así como en cuanto a los cambios a corto plazo en el programa maestro de producción. 8. Implantación y mantenimiento: por último, una vez decidido el diseño de planta más apropiado, éste debe implantarse y supervisarse, con el objetivo de corregir las deficiencias que puedan encontrarse en la práctica. Asimismo, deben establecerse los planes apropiados para el mantenimiento de la planta, considerando que los cambios administrativos que se introduzcan pueden implicar cambios tanto en los sistemas de manejo de materiales como en la disposición de la planta. Debemos indicar que si bien el enfoque que estamos presentando para el diseño de planta es el más difundido y tiene la ventaja de presentar una secuencia natural de pasos a seguir, existen enfoques que pudieran ser apropiados para situaciones particulares; para mayor información se sugiere consultar Tompkins et al. (2011). 13.2 Localización de plantas, almacenes y servicios dentro de la planta Sin duda la variable de desempeño más importante para la localización de las empresas es la rentabilidad, a menudo con miras a mediano o a largo plazo. Esta rentabilidad depende de diversos factores, como el costo por transporte (de insumos y/o productos terminados), el monto de la inversión requerida, la disponibilidad de servicios y/o fuentes de energía, el mercado potencial, la política laboral, la política arancelaria u otros factores de 13.2 Localización de plantas, almacenes y servicios dentro de la planta 339 mayor o menor importancia, dependiendo del caso particular. La localización de las plantas, los servicios y, en general, el diseño del sistema de distribución y de atención al cliente son decisiones de fundamental importancia para el éxito o fracaso de un proyecto empresarial. Es necesario tener en cuenta que una vez localizada la planta o el almacén, la decisión de trasladarla hacia una localización más conveniente es poco factible, ya que esta decisión implica una inversión considerable, además de cambios radicales en la operación del negocio. En esta sección se presentan los elementos más importantes a considerar cuando se debe decidir la localización de las plantas, los almacenes o de los servicios dentro de la planta, haciendo énfasis en los factores susceptibles de ser cuantificados y en el uso de modelos que pueden apoyar este proceso. En primer lugar se exponen los elementos a considerar en un estudio de localización de planta y/o almacenes; posteriormente se presentan las principales técnicas que pueden utilizarse para apoyar la toma de decisiones. Planeación de la localización de plantas y almacenes. Los estudios de localización son de naturaleza muy variada, ya que la distribución de los bienes requeridos para la producción y la venta del producto forman un sistema (véase figura 13.2) que implica tanto la distribución de insumos hacia las plantas, como la de productos terminados hacia los almacenes, las tiendas y los clientes. Dif ícilmente podríamos imaginar una planeación global de la localización de todos los elementos del sistema de distribución; sin Proveedores Inventario de materia prima Pedidos Planta manufacturera Inventario de producto final Almacén regional Inventario de producto final Envíos Almacenes de tiendas Inventario de producto final Atención de clientes Inventario de producto final FIGURA 13.2 Elementos de un sistema de distribución 340 Capítulo 13 Diseño de planta embargo, a menudo se realizan estudios parciales para decidir, por ejemplo, la localización de las plantas respecto a la localización de los proveedores y los almacenes o la localización de los almacenes respecto a la localización de las plantas y las tiendas de atención a los clientes. En primer lugar, es conveniente destacar que los almacenes necesitan un sistema de distribución, ya que si bien los almacenes son una fuente de costo, son de fundamental importancia para lograr que el sistema de distribución proporcione un servicio eficiente al cliente para reducir los costos de distribución en función de la consolidación de envíos y de la especialización. Algunas de las ventajas que se obtienen por utilizar almacenes son las siguientes: • • • • La consolidación (agrupación de productos diferentes en el mismo envío, véase figura 13.3) permite economizar en el transporte sin incurrir en altos costos por inventario, ya que se pueden transportar grandes volúmenes (heterogéneos) en una sola operación. La utilización de almacenes en puntos estratégicos del sistema de distribución permite que las plantas se puedan localizar más cerca de los centros de abastecimiento, sin causar mayores costos de transporte hacia los centros de demanda. Debido a la especialización en la atención al cliente y a la adecuada localización de los almacenes, éstos pueden atender los pedidos en menor tiempo, generando una menor probabilidad de desatender un pedido. En el caso de la distribución de bienes perecederos (por ejemplo, alimentos), los almacenes se pueden especializar en la conservación y el transporte adecuado del producto. Planta A Tienda 1 Producto 1 Planta B Tienda 2 Producto 2 No consolidación Altos inventarios o pequeñas cantidades Planta A Tienda 1 Producto 1 Almacén Planta B Tienda 2 Producto 2 FIGURA 13.3 Consolidación de envíos en un almacén Consolidación Bajos inventarios y grandes cantidades 341 13.2 Localización de plantas, almacenes y servicios dentro de la planta Planeación inicial Exploración geográfica Análisis de alternativas Evaluación y selección FIGURA 13.4 Pasos de un estudio de localización Como se muestra en la figura 13.4, un estudio de localización debe empezar por la definición clara de los objetivos, los mercados meta y de la estrategia de la empresa al abrir una nueva planta o almacén, fase que se identifica como planeación inicial. De acuerdo con la estrategia de la empresa y los criterios de distribución (cercanía de los proveedores y/o clientes), se puede dar inicio a una fase de exploración geográfica. Estas dos fases permiten tener una primera lista de localidades candidatas, las cuales deben ser evaluadas de acuerdo con aspectos técnicos y criterios de factibilidad (disponibilidad de fuentes de energía, medios para eliminar los residuos del proceso, disponibilidad de servicios, etc.); dicha evaluación da lugar a la etapa de evaluación de alternativas. Por último, teniendo la información relevante de los costos se puede llevar a cabo la fase de evaluación y selección, en la que se pueden utilizar técnicas de optimización para apoyar el proceso de la toma de decisiones. Factores a considerar en un estudio de localización. En un estudio de localización los factores a considerar son muy diversos. En la tabla 13.1 se presenta una lista (no exhaustiva) de los elementos que podrían ser relevantes, agrupados en las categorías: mano de obra, transporte, servicios, calidad de vida y marco legal. A continuación se comenta la importancia de algunos de estos factores. 1. Mano de obra: aun para las empresas con un alto grado de automatización, la mano de obra es de importancia fundamental. La localidad elegida para el funcionamiento de la empresa debe ser capaz TABLA 13.1 Factores importantes para la localización Mano de obra Transporte Calidad de vida Servicios Marco legal Disponibilidad Proveedores Agua Clima Impuestos Relaciones laborales Mercados Medios de desecho Educación Seguros Rotación de personal Medios existentes Fuentes de energía Centros de investigación Incentivos tributarios Personal calificado Costo del transporte Comunicaciones Costo de la propiedad Medios de propaganda 342 Capítulo 13 Diseño de planta de reclutar al personal que necesita, en calidad y en cantidad, para su buena operación. En el caso en que el personal es altamente calificado, si bien es cierto que este personal puede ser traído desde otras áreas, a menudo la carencia de buenos servicios (salud, educación, vivienda) puede ser un inconveniente para la atracción de personal educado y/o altamente capacitado. Por otro lado, el personal técnico que no requiere de alta especialización puede obtenerse reclutando personal no calificado, el cual recibirá una capacitación adecuada en la empresa. Sin embargo, si existe competencia de otras empresas para reclutar personal técnico, se corre el riesgo de tener una alta rotación de personal, que trae consigo mayores gastos de capacitación y entrenamiento. Por lo mismo, algunas empresas tienen la política de localizar sus plantas en áreas nuevas para la indus-tria (rurales o poco industrializadas), para lograr que la comunidad se identifique con la empresa y así evitar el problema de la alta rotación de personal. Algunas otras consideraciones importantes con respecto a la mano de obra son: nivel de salarios, fortaleza de los sindicatos, restricciones para variar el tamaño de la fuerza laboral (periodos de contratación, beneficios sociales, jornada laboral, etc.), productividad y educación de los trabajadores, así como disponibilidad de centros de formación técnica. 2. Servicios de transporte: la existencia de medios adecuados para el transporte de insumos hacia la planta y de productos terminados hacia los centros de distribución es un factor importante a considerar para la elección de la localización apropiada. Indudablemente, el medio de transporte más difundido es la carretera, pero puede ser adecuado considerar otros medios, como el ferrocarril, la vía marítima y el transporte aéreo. El ferrocarril es un medio más lento que la carretera, pero es barato y apto para grandes volúmenes de transporte. La vía marítima es apropiada para el transporte de bienes altamente comerciables y de gran disponibilidad en el mercado internacional, como el petróleo, petroquímicos, minerales, etc. La vía aérea es un medio más caro, pero puede ser adecuada para el transporte de bienes perecederos, como flores o alimentos frescos; cuando el servicio rápido al cliente es muy importante, también puede ser considerado como un medio alternativo para la expedición de pedidos. 3. Cercanía a mercados, a plantas y a proveedores: uno de los criterios de localización que puede considerarse a primera vista es el de la cercanía, ya sea a los mercados, a los proveedores de insumos o a otras plantas de la empresa. La cercanía a los mercados puede ser conveniente cuando el costo de transporte del producto terminado es alto en comparación con el costo de transporte de los insu- 13.2 Localización de plantas, almacenes y servicios dentro de la planta 343 mos; tal es el caso, por ejemplo, de la producción de fertilizantes y de materiales de construcción. La cercanía a los centros de producción de insumos puede ser importante en el caso en que los insumos son perecederos (industria de alimentos) o cuando el costo de transporte de los insumos es alto, como en el caso de la industria del papel. Algunas empresas pueden considerar importante la cercanía a otras plantas de la empresa cuando la nueva planta desempeña un papel de apoyo a la producción de las plantas principales. Por ejemplo, la implantación de la filosofía de producción justo a tiempo (que es la práctica difundida en la industria automotriz) puede forzar a que las plantas proveedoras se sitúen cerca de las ensambladoras para lograr el abastecimiento oportuno. 4. Fuentes de energía y servicios: el acceso a fuentes de energía barata, confiable y adecuada para el funcionamiento de la planta es otro factor importante para su localización. Para algunas industrias, donde el uso de energía es intensivo, este costo es relevante. Por lo mismo, existen empresas que prefieren producir su propia energía a partir del consumo de combustibles (carbón, petróleo, gas, etc.); otras utilizan algún tipo de combustible como insumo directo para la producción, tal es el caso de la industria petroquímica, que utiliza los derivados del petróleo o la tecnología de arco eléctrico para la producción de acero, que utiliza el gas natural como un gas reductor de los óxidos de hierro para la producción del hierro esponja, insumo que utiliza esta tecnología para producir el acero. La existencia de servicios como el agua, las comunicaciones y la disponibilidad de medios para el desecho de materiales también es un criterio a considerar para la selección de localidades candidatas, ya que es importante operar la planta sin perjudicar al medio ambiente. 5. Calidad de vida: la calidad de vida, la apertura del gobierno y la comunidad local también son factores a considerar en la exploración de las localidades. Como podríamos imaginar, la existencia de actividades culturales, de servicios religiosos y educativos, de actividades recreativas y el acceso a la vivienda, entre otros, son algunos factores que determinan que la vida de los miembros de la empresa sea más placentera y, a su vez, facilitan la retención del personal. Por otro lado, algunas consideraciones de la calidad de vida, como el costo de la propiedad, influyen directamente en la inversión inicial de la planta. 6. Marco legal: en muchas ocasiones, las consideraciones legales desempeñan un papel fundamental en la localización de las empresas manufactureras. La implantación de zonas francas para la producción de bienes para exportar, obteniendo la exención del impuesto de importación de los insumos (por ejemplo, las maquiladoras 344 Capítulo 13 Diseño de planta mexicanas y los parques industriales ubicados en puertos de Chile y Perú), ha probado ser un mecanismo eficiente para atraer inversión productiva. La regulación en materia ecológica tiene importantes consecuencias y, en algunos casos, se ha prohibido la localización de ciertas industrias por razones ecológicas (por ejemplo, en México, D.F., se han dictado normas al respecto para evitar altos niveles de contaminación en la ciudad). Como ya se mencionó, la lista de factores que aquí presentamos no es exhaustiva, ya que pueden existir factores particulares del caso, como podría ser la estrategia corporativa de segmentación de mercados. Por lo mismo, se recomienda considerar una lista exhaustiva de factores importantes sólo para efectos de exploración geográfica, y no necesariamente para tomar la decisión final. Cabe mencionar que algunos de los factores que se mencionan son de naturaleza cualitativa (clima, calidad de vida, disponibilidad de mano de obra), por lo que pueden servir de criterio para descartar o para seguir considerando una localidad en particular. Otros factores, como el costo de la propiedad, los impuestos o el transporte, pueden evaluarse de acuerdo con el costo de instalación y/o de operación que implica para la empresa, criterio que puede utilizarse para apoyar una toma de decisiones definitiva. Técnicas para la exploración geográfica. Como expusimos, los factores que deben tomarse en cuenta para la localización de las plantas y los almacenes pueden ser de diferente naturaleza; algunos tienen un efecto visible en los costos (cercanía a mercados) y otros no (calidad de vida). En una fase de exploración geográfica podemos considerar, inicialmente, al transporte (de insumos y de productos terminados) como el factor económico más sencillo de cuantificar. En este sentido, la técnica del centro de gravedad (que será revisada a continuación) es la más utilizada para explorar el área de la posible localización. Una vez ubicada el área de localización conveniente, podemos iniciar la búsqueda de localidades específicas que reúnan las condiciones requeridas, para lo cual es necesario recolectar la información cualitativa sobre las características relevantes de los lugares a explorar, para descartar las localidades que no reúnan las condiciones necesarias. La técnica más difundida para este propósito es el uso de tablas de calificación, las cuales se describen en esta sección. Una primera aproximación para determinar el área geográfica en la que conviene localizar una planta (o almacén) consiste en considerar la localización de los centros desde y hacia los cuales deberán transportarse los insumos y/o el producto terminado y, en función de estas localidades y de los volúmenes a transportar, buscar la localización que minimice el costo total de transporte. En la figura 13.5 presentamos una gráfica típica de la localización de los centros de oferta/demanda (puntos Pi) respecto a los cuales debe encontrarse la localización ideal de la planta o del almacén (punto L). 13.2 Localización de plantas, almacenes y servicios dentro de la planta 345 P2 (x2, y2) P1 (x1, y1) w1 FIGURA 13.5 Localización de los centros de oferta y demanda L (x, y) P3 (x3, y3) Para poder tener una medida de la distancia entre los centros y la planta o el almacén, deben asignarse coordenadas a los centros (respecto a un origen arbitrario). Por ejemplo, en la figura 13.5 se asignan las coordenadas (x1, y1) al centro P1 (las cuales son conocidas, ya que la posición de los centros es conocida), mientras que a la localización de la planta o del almacén (L) se le asignan, genéricamente, las coordenadas (x, y), las cuales todavía son desconocidas. El costo total de transporte que corresponde a una localización es función tanto del volumen a transportar desde los centros de oferta/demanda como de la distancia de éstos hacia la localización; de manera que si denotamos por wi al volumen a transportar desde/hacia el punto Pi, una medida del costo total de transporte será: F(x, y) w1d(P1, L) w2d(P2, L) … wnd(Pn, L) (13.1) donde d(Pi, L) es una medida de la distancia desde el punto Pi (xi, yi) hacia la localidad (por determinar) L (x, y). De esta manera, dados n centros de oferta/demanda P1, P2, . . ., Pn, con coordenadas (x1, y1), (x2 , y2), ..., (xn, yn) y volúmenes de transporte w1, w2, ..., wn, respectivamente, el problema de encontrar las coordenadas de la localización L (x, y) que minimicen los costos totales de transporte puede plantearse como encontrar las coordenadas (x, y) que minimicen la función de costos definida en (13.1). En la práctica, la verdadera distancia d(Pi, L) a recorrer desde un centro hacia la localidad puede ser desconocida (ya que puede depender de la red de carreteras, por ejemplo), en cuyo caso se tiene que usar alguna aproximación para encontrar una solución al problema de optimización planteado. Las medidas de distancia más difundidas son la distancia euclidiana y la distancia rectangular, que definimos a continuación: • La distancia euclidiana es la medida de distancia más utilizada para la localización de plantas y/o almacenes, ya que aproxima razonablemente distancias en regiones geográficas amplias o ciudades con calles no rectangulares. Esta distancia es la línea recta entre los dos puntos y se define por: d(Pi, L) x (x xi)2 (y yi)2 346 Capítulo 13 • Diseño de planta La distancia rectangular es la medida de distancia más utilizada para la localización dentro de las plantas, ya que aproxima razonablemente distancias en espacios cerrados, donde los puntos se conectan por pasillos. Esta distancia es la que se obtiene al recorrer segmentos paralelos a los ejes y se define por: d(Pi, L) x xi y yi La solución al problema de minimizar (13.1) cuando se consideran distancias euclidianas es llamada centroide, y la solución cuando se consideran distancias rectangulares se denomina mediana. A continuación indicamos cómo se pueden calcular los centroides y las medianas, a la vez que ilustramos sus aplicaciones. Localización de servicios dentro de una planta utilizando la mediana. Como ya mencionamos, la mediana es la solución al problema de encontrar las coordenadas que minimicen: F(x, y) w1(x x1 y y1) w2(x x2 y y2) . . . wn(x xn y yn) Es conveniente observar que la función que acabamos de presentar en la ecuación anterior no es diferenciable (ya que la función valor absoluto no es diferenciable), por lo que para hallar la solución del problema de minimización no se pueden utilizar las técnicas clásicas de optimización, las cuales utilizan métodos del cálculo diferencial. A pesar de esto, se ha encontrado que el problema tiene una solución que recibe el nombre de mediana y que puede ser calculada fácilmente. Dadas las coordenadas de n puntos y sus respectivos pesos, las condiciones necesarias y suficientes para que un punto (x, y) sea una mediana de los puntos dados son las siguientes: 1. La coordenada x es igual a algún xi y, de forma similar, la coordenada y es igual a algún yj, con i, j 1, 2, …, n. 2. La suma de los pesos (wi) es menor o igual que la semisuma de los pesos, para los cuales sus correspondientes valores xi son estrictamente menores que x; la suma de los pesos es menor o igual que la semisuma de los pesos, para los cuales sus correspondientes valores xi son estrictamente mayores que x. 3. La suma de los pesos es menor o igual que la semisuma de los pesos, para los cuales sus correspondientes valores yi son estrictamente menores que y, y la suma de los pesos es menor o igual que la semisuma de los pesos, para los cuales sus correspondientes valores yi son estrictamente mayores que y. La primera condición muestra que para obtener la mediana se requiere explorar sólo un número finito de posibilidades, por lo que el cálculo de la misma tiene poca complejidad computacional. Las últimas dos condiciones pueden interpretarse, intuitivamente, como que las coordenadas de la 347 13.2 Localización de plantas, almacenes y servicios dentro de la planta mediana parten a los datos correspondientes en el punto medio de los pesos, ya que reparten, más o menos, igual magnitud de pesos hacia atrás y hacia adelante de la coordenada. Asimismo, debemos indicar que un conjunto de datos puede tener más de una mediana. De acuerdo con estas condiciones para la mediana, podemos sugerir un algoritmo sencillo de cálculo, como el siguiente: 1. Ordenar los valores de las abscisas xi de menor a mayor y calcular la semisuma de los pesos. 2. Construir una tabla con los valores xi ordenados de menor a mayor, indicando para cada xi el correspondiente peso acumulado (suma de los pesos para los valores menores o iguales). 3. Inspeccionar la tabla anterior para ubicar el primer valor de las abscisas (buscando a partir del valor más pequeño), para el cual el peso acumulado es mayor o igual que la semisuma de los pesos (este valor corresponde a la mediana). Si el peso acumulado del valor encontrado es exactamente igual a la semisuma de los pesos, entonces existen dos valores que califican la mediana: el valor encontrado y el siguiente valor. Para hallar la ordenada y de la mediana, puede seguirse un procedimiento similar al planteado para la abscisa x (tomando las ordenadas yi en lugar de las abscisas xi). El siguiente ejemplo sirve para ilustrar la aplicación práctica del algoritmo presentado para calcular la mediana (este algoritmo puede implantarse fácilmente en una hoja de cálculo). Ejemplo 13.1. Posición de la estación de un operador En la figura 13.6 se presenta la disposición de un taller que fabrica casimir de lana, el cual consta de ocho telares con lanzadera, y se indican las posiciones de las estaciones de control (Oi) para cada telar. Las máquinas operan automáticamente, pero requieren de la atención de un operador cada O6 O5 O4 O2 O3 O7 O8 O1 FIGURA 13.6 Disposición de un taller de telares 348 Capítulo 13 Diseño de planta TABLA 13.2 Coordenadas de estaciones de control de máquinas Máquina (i ) Estación de control (oi ) Frecuencia diaria de fallas (wi ) 1 (0, 0) 2 2 (4, 0) 1.25 3 (8, 0) 2 4 (8, 7) 1.5 5 (4, 7) 1.75 6 (0, 7) 2 7 (0, 5) 1.75 8 (0, 2) 2 vez que se detecta una falla en el proceso, y cada vez que esto ocurre se desperdician tiempo y materiales, por lo que el costo que genera cada falla es proporcional a la distancia recorrida por el operador para atender la máquina. Por otro lado, el operador viaja a través de los pasillos (las siete líneas de la gráfica) cada vez que necesita atender la falla de un telar. Se desea determinar la posición óptima del operador que minimice los costos en que se incurre a causa de las fallas, teniendo en cuenta que cada máquina posee una determinada frecuencia de ocurrencia de fallas y que, una vez atendida la falla de una máquina, el operador regresa a su posición inicial (estación del operador) para esperar el siguiente pedido de atención. En la tabla 13.2 se presentan las coordenadas (en metros) de las estaciones de control de las máquinas (tomando como origen la posición O1) y las correspondientes frecuencias diarias de ocurrencia de las fallas para cada máquina. Estas frecuencias pueden ser tomadas como los pesos wi y las posiciones de las estaciones de control como las coordenadas de los puntos Pi, de manera que el problema de encontrar la posición del operador que minimice los costos por fallas se reduce al problema de encontrar la mediana de los puntos y los pesos dados. Esta formulación del problema supone que el costo de la falla por unidad de tiempo sin atención es el mismo para cada máquina; asimismo, la utilización de distancias rectangulares se justifica con el hecho que el operador debe utilizar los pasillos para viajar. En la tabla 13.3 se muestran los resultados obtenidos al ordenar los valores de las coordenadas y calcular los correspondientes pesos acumulados. La semisuma de los pesos para estos datos es de 14.25/2 7.125. Los resultados de la tabla se obtuvieron utilizando una hoja de cálculo (véase archivo Telares.xls en la página web de este libro), donde los datos de las abscisas, las ordenadas y de los pesos se copiaron de la primera hoja 349 13.2 Localización de plantas, almacenes y servicios dentro de la planta TABLA 13.3 Ordenamiento de coordenadas de estaciones de control de máquinas Abscisas de menor a mayor Peso Peso acumulado ¿Mediana? Ordenadas de menor a mayor Peso Peso acumulado ¿Mediana? 0 2 2 NO 0 2 2 NO 0 2 4 NO 0 1.25 3.25 NO 0 1.75 5.75 NO 0 2 5.25 NO 0 2 7.75 SÍ 2 2 7.25 SÍ 4 1.25 9 NO 5 1.75 9 NO 4 1.75 10.75 NO 7 1.5 10.5 NO 8 2 12.75 NO 7 1.75 12.25 NO 8 1.5 14.25 NO 7 2 14.25 NO (de datos) y se ordenaron utilizando la opción Ordenar del menú Datos de Excel. Como se observa en la tabla, el valor de la mediana es (0, 2) (que coincide con la posición de la estación 8), por lo que conviene localizar al operador en esta posición. Asimismo, en la hoja de datos del archivo Telares. xls se proporciona información adicional, como la distancia (rectangular) de cada punto a la mediana y el valor de la función (13.1) minimizada (suma de las distancias por los pesos). En caso de ser necesario, este último valor puede ser usado para evaluar los costos. Así, por ejemplo, dado que la suma de las distancias por los pesos es de 82 (luego de calcular la mediana), si se estima que el costo (por desperdicio) en el que se incurre cuando falla un telar es de $4 por metro recorrido (en cada falla), entonces, si ubicamos al operador en la posición (0, 2), el costo promedio diario ocasionado por las fallas será de 4(82) $328 (cabe mencionar que éste es el menor costo posible con un operador). Exploración geográfica utilizando el centroide. Como ya se mencionó, el centroide es la solución al problema de encontrar las coordenadas que minimicen: F ( x , y ) = w1 ( x − x1 )2 + ( y − y1 )2 + w2 ( x − x2 )2 + ( y − y2 )2 + + wn ( x − xn )2 + ( y − yn )2 Cabe destacar que la función que acabamos de presentar en la ecuación anterior sí es diferenciable, por lo que para hallar el centroide se pueden utilizar las técnicas clásicas de optimización. Sin embargo, la solución de este problema no tiene una forma explícita, ya que las condiciones (de 350 Capítulo 13 Diseño de planta optimización de primer orden (véase, por ejemplo, Winston, 2005) conducen al sistema de ecuaciones no lineales: wi ( xi − x) n ∑ i= 1 wi ( yi − y) n ∑ i= 1 = 0, ( xi − x )2 + ( yi − y )2 ( xi − x )2 + ( yi − y )2 = 0. Si bien es cierto que este sistema puede resolverse haciendo uso de software para optimización no lineal (de propósito general), el algoritmo de Weiszfeld es muy eficiente para encontrar el centroide. Este algoritmo va aproximando la solución por medio de iteraciones (como lo hacen la mayoría de los algoritmos para programación no lineal) y se detiene cuando el error de aproximación es lo suficientemente pequeño. Específicamente, este algoritmo se puede describir de la siguiente manera: 1. Aproximar la solución por el centro de gravedad: n x0 = ∑w x i =1 n i ∑w i =1 i n i , y0 = ∑w y i =1 n i ∑w i . i i =1 2. Hacer iteraciones sobre la solución obtenida hasta el momento, de acuerdo con: n xn+1 n w i xi wi yi ∑ i =1 d i =1 d = n i , yn+1 = n i , wi w ∑d ∑ di i =1 i =1 i i ∑ donde: ( xn − xi )2 + ( yn − yi )2. Se destaca que a mayor número de iteraciones se obtiene una mejor aproximación, por lo que se puede implementar un algoritmo con un número dado de iteraciones; o, simplemente, se pueden hacer iteraciones hasta obtener una precisión deseada, por ejemplo, max{xn+1 – x, yn+1 – y}e, donde e es un valor dado (pequeño). Una versión de este algoritmo se encuentra implantada en el archivo Sabores.xls, cuyo uso ilustramos en el siguiente ejemplo. Ejemplo 13.2. Exploración de la localización de una planta utilizando el centroide Sabores del Mundo es una empresa dedicada a la producción de insumos para la industria de alimentos y está emprendiendo el proyecto de fabricar 13.2 Localización de plantas, almacenes y servicios dentro de la planta Coordenadas 1. Tampico (D) 2. Monterrey (D) 3. D.F. (D) 4. Manzanillo (D) 5. Oaxaca (O) 6. Salina Cruz (O) 7. Veracruz (O) (1700, 1317) (1484, 1450) (1533, 855) (1034, 817) (1784, 634) (1833, 467) (1732, 817) 351 Monterrey Tampico D.F. Veracruz Manzanillo Oaxaca Salina Cruz FIGURA 13.7 Centros de oferta y de demanda de Sabores del Mundo un colorante derivado de un insecto llamado en México grana o cochinilla (Coccus cacti). El proyecto se basa en un programa que impulsa la siembra del nopal en el estado de Oaxaca (la cochinilla habita fundamentalmente en el nopal). La empresa ha decidido que su producción en México también podría abastecer sus mercados en Europa, Asia y Estados Unidos, para lo cual utilizaría los puertos de Tampico y Manzanillo como centros de embarque; estos centros de demanda se sumarían a los mercados nacionales localizados en Monterrey y en México, D.F. Los centros de oferta del insumo de cochinilla serían, fundamentalmente, Oaxaca, capital del estado del mismo nombre, y los puertos de Salina Cruz y Veracruz, donde se recibirán los insumos provenientes de Sudamérica y Europa. La ubicación de estos centros de distribución se presenta en la figura 13.7, donde se le han asignado coordenadas (en kilómetros) a estas localidades. Las cantidades a transportar anualmente (en toneladas) desde los centros de oferta o hacia los centros de demanda se resumen en la tabla 13.4. La oferta total prevista de insumos es de 3000 ton, mientras que la demanda de colorante es de 2700 ton, lo que indica que cada unidad de insumo rinde para 0.9 unidades de colorante. En la primera hoja (de nombre Datos) del archivo Sabores.xls (véase la página web de este libro) se utilizó el programa del botón Calcular Centroide (con 100 iteraciones) para encontrar el centroide de estos puntos, utilizando las coordenadas de los centros de distribución (véase figura 13.7) y los volúmenes de transporte de la tabla como pesos (wi), en donde se obtuvieron los valores de: x 1717.58 y y 809.18. Estas coordenadas corresponden a una localización ubicada ligeramente al sudeste de México, D.F. (punto L de la figura 13.7, que sugiere la ciudad de Puebla). 352 Capítulo 13 Diseño de planta TABLA 13.4 Volúmenes de transporte de Sabores del Mundo Localidad Volumen de transporte (ton) Tampico 900 Monterrey 400 México, D.F. 500 Manzanillo 900 Oaxaca 1000 Salina Cruz 1000 Veracruz 1000 Debemos mencionar que la zona sugerida por el centroide depende, en gran medida, de la política de distribución planteada. Por ejemplo, el resultado que hemos obtenido supone implícitamente que en esta localidad se recibirán los insumos de todos los centros de oferta y se distribuirán hacia todos los centros de demanda. Si nuestra política consistiera en construir más de una planta, el resultado debería ser diferente. Por ejemplo, supongamos que quisiéramos explorar la opción de construir dos plantas. La primera de ellas abastecería a México, D.F. (500 ton) y a Manzanillo (900 ton), y obtendría sus insumos de Salina Cruz (1000 ton) y de Oaxaca (556 ton). La segunda planta abastecería a Tampico (900 ton) y a Monterrey (400 ton), y demandaría insumos de Veracruz (1000 ton) y de Oaxaca (444 ton). Utilizando la segunda y la tercera hojas del archivo Sabores.xls (con 100 iteraciones cada una), para la primera planta se obtienen las coordenadas x 1713.04 y y 617.15, que corresponden al punto L1 en la figura 13.7 (al suroeste de Oaxaca); mientras que para la segunda planta se obtienen las coordenadas x 1732 y y 817, que corresponden al punto L2 en la figura 13.7 (Veracruz). De esta manera, utilizando la técnica del centroide, observamos que la ciudad de Puebla puede ser una localidad apropiada si se desea ubicar una sola planta; mientras que las localidades de Oaxaca y Veracruz son apropiadas para ubicar dos plantas (una en cada localidad, bajo la política de distribución correspondiente). Con este ejemplo se pretende ilustrar cómo la técnica del centroide es útil para generar posiciones alrededor de las cuales pueden ubicarse localidades candidatas para situar plantas y/o almacenes. El siguiente paso en la exploración de localidades debe considerar otros factores importantes, además del costo por transporte. Tablas de calificación para la localización. Como hemos podido apreciar hasta aquí, la técnica del centro de gravedad puede ayudarnos a ubicar la zona alrededor de la cual es conveniente localizar una planta o un almacén, de manera que los costos de transporte no sean elevados. Sin embargo, la 13.2 Localización de plantas, almacenes y servicios dentro de la planta 353 ubicación precisa obtenida no necesariamente reúne todas las características que requiere el proyecto (condiciones laborales, disponibilidad de servicios, fuentes de energía, etc.). En consecuencia, el siguiente paso en la fase de exploración geográfica consiste en identificar las localidades candidatas y explorar si éstas reúnen las características cualitativas que se consideran importantes para que la planta o el almacén pueda operar satisfactoriamente; después se puede utilizar un criterio más preciso de costos para seleccionar la ubicación definitiva. La técnica más difundida para analizar las cualidades de las localidades candidatas es el uso de una tabla de calificación, la cual consiste en una lista de las características que se consideran importantes para la operación de la planta o del almacén, a la cual se le asignan calificaciones de acuerdo con las categorías propuestas. De esta manera, se pueden obtener calificaciones para cada posible localización, de acuerdo con las cualidades de la misma. Estas calificaciones sirven como punto de referencia para descartar una localidad o para considerarla apta para llevar a cabo un estudio de localización basado en información más precisa de los costos. En el siguiente ejemplo ilustramos la aplicación de esta técnica. Ejemplo 13.3. Tabla de calificación para una empresa de alimentos Sabores del Mundo (véase ejemplo 13.2) considera que existen cuatro factores cualitativos importantes para su proyecto: clima, disponibilidad de agua, educación y condiciones laborales. Se ha decidido que cada uno de éstos puede ser calificado con una puntuación de 0 a 50, y con la finalidad de lograr calificaciones objetivas (lo cual, en general, es recomendable) se establecen seis categorías para cada uno de estos factores, asignándoles las calificaciones 0, 10, 20, 30, 40 y 50, respectivamente. La tabla 13.5 contiene las calificaciones obtenidas. De una lista de seis posibles localidades exploradas, se obtuvieron los resultados que se muestran en la tabla 13.6. Un primer criterio para eliminar localidades puede ser la puntuación total; por ejemplo, estableciendo una puntuación mínima total de 120, quedarían excluidas las localidades 3 y 6. Sin embargo, se debe tener en cuenta que la obtención de una puntuación muy baja en un factor puede, simplemente, imposibilitar la ubicación en una localidad determinada; por ejemplo, la localidad 1 tiene una calificación muy baja en educación, lo que obligaría a su descalificación. De esta forma, las localidades 2, 4 y 5 serían seleccionadas como candidatas para pasar a una siguiente fase de análisis cuantitativo y, posteriormente, a la fase de evaluación y selección. Fuentes de costo en la localización de plantas y almacenes. Hasta el momento hemos visto que el centroide y las tablas de calificación pueden servir de apoyo para seleccionar las localidades candidatas para ubicar las plantas y los almacenes. La última fase, de evaluación y selección definitiva 354 Capítulo 13 Diseño de planta TABLA 13.5 Tabla de calificaciones para Sabores del Mundo 1. Clima Categoría 2. Puntaje A Insano, no se puede instalar el proyecto. 0 B Muy variable, catástrofes frecuentes (inundaciones, ciclones o terremotos). 10 C Temperatura variable, catástrofes poco frecuentes. 20 D Temperatura variable, no hay catástrofes. 30 E Temperatura constante, pero el clima es poco húmedo o muy lluvioso. 40 F Ideal para el proyecto, clima agradable todo el año. 50 Disponibilidad de agua Categoría 3. Puntaje A No disponible. 0 B Disponible, pero se debe invertir en perforación de pozos. 10 C Disponible, pero se debe invertir en purificación y tanques. 20 D Disponible, pero requiere purificación. 30 E Disponible y de buena calidad, pero es cara. 40 F Disponible, de buena calidad y precio razonable. 50 Educación Categoría 4. Puntaje A No hay escuelas. 0 B Sólo educación primaria pública. 10 C Sólo educación secundaria pública. 20 D Educación secundaria privada y pública de buena calidad. 30 E Educación secundaria y técnica de buena calidad. 40 F Existen universidades y centros de preparación técnica. 50 Condiciones laborales Categoría Puntaje A Leyes estrictas y hay escasez de personal. 0 B Leyes estrictas, existe personal no calificado. 10 C Leyes estrictas, existe personal calificado. 20 D Leyes estrictas pero no aplicadas, personal calificado. 30 E Personal calificado, fácil contratación y despidos, pero alta rotación. 40 F Existe personal calificado, fácil contratación y despidos, poca competencia. 50 355 13.2 Localización de plantas, almacenes y servicios dentro de la planta TABLA 13.6 Calificaciones para varias localidades Calificación del lugar Factor L1 L2 L3 L4 L5 L6 Clima 30 40 10 40 50 20 Agua 40 30 50 50 20 20 Educación 10 30 20 50 40 40 Condiciones laborales 50 40 30 40 30 30 Total 130 140 110 180 140 110 de la(s) localidad(es), debe tener en cuenta los costos relevantes de la ubicación del proyecto, mismos que, a menudo, se pueden agrupar en dos fuentes. La primera está relacionada con las características del lugar, que determinan los costos particulares de la instalación y de la operación; entre sus componentes podemos mencionar: costos de la propiedad, nivel de salarios, costo de la energía, impuestos, seguros, entre otros. La segunda fuente de costo está en función de la localización geográfica y de la política de distribución de la empresa; éste es básicamente el costo de transporte (de materiales, insumos y de productos terminados), el cual depende de la posición geográfica de la localización y de la política de distribución de la empresa. Estamos distinguiendo entre estas dos fuentes de costo debido a que el costo de la primera puede evaluarse únicamente de acuerdo con la información que se puede obtener de las localidades particulares; en cambio, el costo de la segunda fuente depende, además, de la estrategia de distribución de la empresa, por lo que debemos determinar la mejor política de distribución que, a primera vista, puede no ser obvia y, en algunos casos, se obtiene haciendo uso del modelo conocido como modelo de transporte (véase Winston et al., 2004). Para comparar los costos totales de dos localidades es conveniente, primero, uniformar los costos de ambas fuentes y, después, expresar los costos de instalación y de operación en las mismas unidades, dado que los costos de transporte a menudo se expresan por unidad de tiempo (por ejemplo, anual). En el siguiente ejemplo se ilustra cómo se pueden uniformar los costos de instalación (a menudo expresados como un desembolso único) con los costos de operación y de transporte (a menudo expresados por unidad de tiempo). Ejemplo 13.4. Comparación de costos de instalación y de operación Sabores del Mundo (la empresa del ejemplo anterior) está explorando la posibilidad de instalar una planta con capacidad de producción de 3000 toneladas anuales de colorante de cochinilla, ya sea en Oaxaca o en Puebla. 356 Capítulo 13 Diseño de planta Tabla 13.7 Costos de instalación y de operación de Sabores del Mundo Puebla Oaxaca ($) ($) Terreno 400 000 300 000 Construcción 600 000 400 000 Equipo e instalación 600 000 700 000 1 600 000 1 400 000 ($ al año) ($ al año) 100 000 95 000 Impuestos y seguros 90 000 92 000 Energía y servicios 50 000 70 000 Mantenimiento 10 000 15 000 250 000 272 000 Costos de instalación Total Costos de operación Salarios Total Con esta finalidad, se ha recopilado información detallada sobre los gastos de instalación y de operación en ambas localidades, la cual se resume en la tabla 13.7. Como se puede observar en la tabla 13.7, los costos de instalación son menores en Oaxaca que en Puebla, mientras que con los costos de operación pasa lo contrario. Por otro lado, mientras que los costos de instalación implican un desembolso único, los costos de operación son desembolsos periódicos. En consecuencia, para comparar los costos totales de instalación y de operación de las dos localidades, se debe, en primer lugar, uniformar los periodos de pagos. Una manera de lograr este objetivo es expresando el desembolso único que implica el costo de instalación como amortizaciones periódicas, las cuales deben incluir el costo del capital (a partir de la tasa de interés), considerando que esta inversión tiene un determinado tiempo de vida útil. Para este fin, se puede utilizar la siguiente ecuación (véase Ross et al., 2001): 1 ⎡1 ⎤ I = A⎢ − ⎥ N ⎣ i i(1 + i ) ⎦ (13.2) La ecuación (13.2) establece una relación entre la inversión inicial I, que tiene una vida útil de N periodos, y la cantidad A, pagada cada N periodos iguales, que amortizará la inversión inicial I, incluyendo el interés que ésta genera (la tasa de interés es de i por cada periodo). Por ejemplo, la inversión inicial requerida en Puebla es I 1 600 000. Supongamos que ésta tiene una vida útil de 10 años y que la tasa de interés mensual es de 1% (i 13.3 Disposición de planta 357 0.01). Si queremos calcular el pago mensual A, que amortizará la inversión inicial y sus intereses, de acuerdo con (13.2) tenemos: ⎡ 1 ⎤ 1 1 600 000 = A ⎢ − 120 ⎥ 0 . 01 0.01(1 + 0.01) ⎦ ⎣ de donde resulta A $22 955. Teniendo en cuenta que el costo mensual de operación es de $20 833, se obtiene un costo mensual de operación e instalación para Puebla de $43 788. Mediante un procedimiento similar, se obtiene un costo mensual de operación e instalación para Oaxaca de $42 753. Es conveniente mencionar que, si bien en este ejemplo hemos calculado la amortización mensual, a menudo en los problemas de localización es conveniente calcular las amortizaciones anuales, que también se obtienen usando la ecuación (13.2). Por último, cabe mencionar que en algunas situaciones se puede requerir el uso de modelos de optimización para hacer una adecuada evaluación y selección de la(s) localización(es), debido fundamentalmente a que el costo de transporte bajo cada alternativa puede no ser evidente, ya que debe investigarse en qué cambia el sistema de distribución con las nuevas plantas y/o almacenes. Como en este capítulo no es posible profundizar en los modelos de optimización que sirven para resolver problemas más complejos de localización, se pueden consultar los textos de Tompkins et al. (2011) y de Bramel y Simchi-Levi (1997), en los que puede encontrarse una referencia más amplia al respecto; para un mejor entendimiento de los modelos que apoyan la toma de decisiones se sugiere empezar por un libro de investigación de operaciones como el de Winston (2005). 13.3 Disposición de planta La disposición de una planta (layout en inglés) está relacionada con la disposición f ísica de las unidades dentro de una planta para lograr los objetivos de producción, mediante los niveles adecuados de calidad, productividad y de utilización de recursos. En esta sección se explican los principales conceptos y las técnicas de utilidad para el diseño de la disposición de una planta. El capítulo empieza con la introducción de los principales esquemas de disposición de una planta; posteriormente, se comentan las principales medidas de desempeño que se ven afectadas por la disposición de una planta y, finalmente, se presentan algunas técnicas que pueden utilizarse para apoyar el proceso de la toma de decisiones. Esquemas para la disposición de una planta. La disposición de una planta debe responder al sistema de producción que, estratégicamente, ha adoptado la empresa. Así como pueden identificarse diferentes tipos de sistemas de producción: tipo proyecto, tipo taller, por lotes, en masa y de flujo continuo, es razonable imaginar que para cada tipo de sistema 358 Capítulo 13 Diseño de planta existe un esquema adecuado de disposición de la planta. Sin embargo, como ocurre con los sistemas de producción, en la práctica las empresas pueden adoptar esquemas híbridos de la disposición de una planta; esto es, pueden combinar diferentes esquemas en la misma planta para lograr la disposición que permita implantar exitosamente la estrategia de operaciones de la empresa. Los esquemas más difundidos para la disposición de una planta son los siguientes: • • • • Disposición de acuerdo con el producto. Disposición de acuerdo con el proceso. Disposición en grupos. Disposición de posición fija. A continuación se detallan las características de cada uno de estos esquemas de disposición de planta. Disposición de acuerdo con el producto: bajo este esquema, la manufactura de cada unidad del producto que se va a fabricar sigue la misma secuencia de operaciones y cada departamento de planeación se identifica con un paso específico del proceso de fabricación del producto. A menudo esta disposición se identifica con el nombre de línea de producción, para indicar justamente que los pasos para la manufactura del producto se aplican siempre en la misma secuencia, y que el departamento de planeación donde se realiza un proceso está ubicado cerca de los departamentos donde se realizan los procesos anterior y posterior de la secuencia. Se debe mencionar que en una disposición de acuerdo con el producto no necesariamente se fabrica un único modelo de un producto; por ejemplo, en una línea de ensamble de automóviles, la secuencia de operaciones es la misma para cada modelo de auto que se fabrique en la línea, pero se pueden fabricar diferentes modelos en la misma línea de ensamble. En la figura 13.8 se muestra un esquema de disposición de la planta de acuerdo con el producto para la fabricación de vino. Al conocer la secuencia de los procesos, los departamentos inmediatos en la secuencia se pueden ubicar unos cerca de otros, de manera que se obtienen costos bajos por transporte y por manejo de materiales. La disposición de acuerdo con el producto es la más adecuada para los sistemas de producción en masa y de flujo continuo, pudiéndose también aplicar para la producción por lotes (por ejemplo, diferentes Variedad 1 Variedad 2 FIGURA 13.8 Línea de producción de vinos • Mezcla • • Distribución • • Añejado • • Empaque • • Sellado • • Embotellado • 359 13.3 Disposición de planta modelos de automóviles, diferentes variedades de vino o diferentes modelos de pantalones de mezclilla). Disposición de acuerdo con el proceso: bajo el esquema de disposición de planta de acuerdo con el proceso, los departamentos de planeación son grupos de máquinas o actividades que realizan un trabajo similar; esto es, se definen de acuerdo con el proceso que realizan. A diferencia de la disposición de acuerdo con el producto, los artículos que se producen en la planta pueden pasar por diferentes departamentos de planeación (o estaciones de trabajo) en diferente secuencia, con lo que se obtiene una mayor flexibilidad para producir diferentes artículos. En la figura 13.9 se muestra un esquema de disposición de la planta de acuerdo con el proceso para la fabricación de piezas de acero. Se fabrican piezas cuya manufactura requiere de diferentes secuencias de procesos, lo que permite el uso del mismo equipo para manufacturar productos diferentes. Este esquema de disposición de planta es el adecuado para el sistema de producción tipo taller y también se puede utilizar para sistemas de producción por lotes, cuando se requiere de flexibilidad para producir artículos heterogéneos con el mismo equipo. Debido a que la secuencia de operaciones no es la misma para cada lote que se va a producir, debe tenerse especial cuidado en determinar una disposición f ísica de las estaciones de trabajo y de los departamentos de planeación que no proporcione altos costos por transporte de materiales. Disposición en grupos: el esquema de disposición en grupos (también llamado manufactura celular o tecnología de grupos) utiliza el principio que, agrupando la demanda de varios productos (con tecnología de proceso similar) se puede obtener un alto nivel de demanda agregada que justifique la inversión en equipo especializado y que permita obtener bajos costos de manufactura. En consecuencia, bajo este esquema de disposición de la planta, las piezas y los componentes se agrupan en familias, dentro de las cuales los requerimientos del proceso son similares; además, para cada familia se diseña un departamento de planeación (llamado célula de manufactura), lo que permite la producción en masa de estos productos. Con este esquema de disposición de la planta es posible combinar las ventajas del esquema de acuerdo con el producto y las del esquema de acuerdo con el proceso, ya que esta combinación permite especializar la producción y, a la vez, compartir el equipo para la manufactura de componentes distintos. Bajo esta disposición de la planta, los departamentos de planeación no se definen de acuerdo con el proceso que se implanta en el departamento, si- Pieza 1 Pieza 2 FIGURA 13.9 Disposición de acuerdo con el proceso para fabricar piezas de acero • Perforación • Tratamiento superficial • • • Esmerilado • Pintura • Fresado Ensamble • • 360 Capítulo 13 Diseño de planta T C T EV = Esmeril vertical EH = Esmeril horizontal P = Pulidora EH • • • • • C = Cortadora T = Torno • • Pieza final • • • EV EV Inspección P FIGURA 13.10 Diagrama de una célula de manufactura no que se componen de la célula, el equipo heterogéneo necesario para la manufactura de los componentes que forman parte de la familia de productos. En la figura 13.10 presentamos el esquema de una célula de manufactura donde se realizan operaciones de maquinado, acabado e inspección para producir piezas de metal. Nótese que la disposición del equipo está en forma de U, ya que permite que los operarios sean asignados a varias operaciones. En la gráfica se indica el movimiento (los circuitos que unen los puntos en el centro de la gráfica) de los tres operarios de la célula; por ejemplo, el primer operario utiliza la máquina de corte, y el primer torno realiza la inspección y retira el producto final. La implantación de células de manufactura permite el logro de beneficios importantes, sobre todo en plantas donde se fabrica una gran variedad de componentes. Al especializar la producción, la manufactura celular permite reducir los tiempos por apertura de procesos, el espacio y los costos por transporte de materiales. Los operarios pueden enfocar su atención en las operaciones de manufactura, sin perder tiempo en el movimiento de los materiales, lo que les permite responder rápidamente a los problemas de producción que puedan presentarse, obteniendo productos terminados de alta calidad. Disposición de posición fija: para la producción unitaria y por pedido del cliente de bienes de gran envergadura (locomotoras, aviones, barcos, maquinaria pesada, etc.), es necesario adoptar un sistema de producción tipo proyecto. De la misma manera, durante el proceso de manufactura de estos bienes el tamaño de los mismos no permite trasladarlos de una estación de trabajo a otra para llevar a cabo las operaciones de manufactura. En estos casos, debe utilizarse un esquema de disposición de posición fija; es 13.3 Disposición de planta 361 decir, la manufactura del bien se realiza en un lugar determinado y los operarios, las herramientas y la materia prima deben trasladarse a dicho lugar para llevar a cabo los procesos necesarios de manufactura y de ensamble en una posición fija. Este esquema es apropiado para la manufactura de aviones, barcos y de maquinaria pesada o para proyectos de construcción. Metas de la disposición de la planta. Existen muchas ventajas competitivas que pueden obtenerse a partir de la disposición adecuada de una planta. Para describir mejor las metas que pueden plantearse, empezamos por definir con precisión el significado de algunas medidas de desempeño que, típicamente, se ven afectadas por la disposición de la planta. A continuación presentamos las medidas de desempeño más difundidas, indicando entre paréntesis el término correspondiente en inglés, que a menudo se utiliza en el ambiente de producción. Tasa de salida (throughput): es el número de unidades que se producen en el sistema de producción por unidad de tiempo. La tasa de salida de un producto puede variar en el tiempo, dependiendo de diversos factores, en particular de la composición de la producción (mezcla de productos). Por lo general, la tasa de salida se expresa como el promedio de unidades producidas por unidad de tiempo, durante un periodo determinado. Por ejemplo, en una planta automotriz podría observarse que la tasa de salida durante el primer año de operación fue de 500 autos diarios. La tasa de salida que se experimenta en un sistema de producción no puede exceder la capacidad de producción. Inventario del material en espera (waiting inventory): está integrado por los productos, las partes o los componentes que están esperando para incorporarse a un proceso, debido a que no se ha recibido la señal (u orden) correspondiente. Dos casos especiales del inventario del material en espera son los inventarios de insumos (que están esperando por la orden de producción) y los inventarios de productos terminados (que están esperando por la orden de compra y/o distribución). Inventario del material en proceso (work in process): es el inventario de las partes y de los componentes que se están procesando entre el inicio y el final de un proceso productivo (o línea de producción). La diferencia con el inventario del material en espera es que el material en proceso generalmente se acumula debido a la congestión del equipo dentro del proceso; en cambio, el material en espera ha terminado las actividades de un proceso y no ha ingresado al proceso siguiente. A menudo el inventario del material en proceso consiste de todos los materiales que se están procesando entre dos estaciones de almacenamiento del inventario del material en espera (véase figura 13.11). De acuerdo con esta definición, el material que está esperando por un proceso al pie de una máquina es material en proceso y no en espera. 362 Capítulo 13 Diseño de planta Estación de estampado Inventario de lámina Inventario de material en proceso Inventario de material en espera Estación de corte Estación de acabado Inventario de tapas FIGURA 13.11 Inventarios en la manufactura de una tapa de acero Ciclo de manufactura (cycle time): es el tiempo desde que inicia el proceso de manufactura de una unidad del producto (parte o componente) hasta que termina el proceso de esta unidad; es decir, coincide con el tiempo que los componentes del producto fueron material en proceso. Se debe mencionar que en muchas situaciones las ventajas en relación con cierta medida de desempeño del sistema pudieran haberse obtenido sacrificando alguna otra. Así, por ejemplo, se podrían obtener ciclos de manufactura menores aumentando algunos costos por inventario o la flexibilidad de un sistema de producción se podría obtener sacrificando la rapidez (tasa de producción) del sistema. Debido a que no es posible lograr la excelencia de un sistema desde todos los puntos de vista, las consideraciones estratégicas desempeñan una función importante para decidir cuáles son las características del sistema cuyo mejor desempeño debe tener prioridad. Por lo mismo, en general, la planeación del diseño de una planta empieza por establecer metas (más que objetivos a maximizar o a minimizar). Algunas de las metas que pueden trazarse en un estudio de diseño de planta pueden estar relacionadas con las siguientes características: • • • • • • Niveles de productividad (tasas de salida). Niveles de congestión dentro del proceso (inventario del material en proceso). Flexibilidad para permitir la introducción de nuevos diseños rápidamente y/o para responder eficientemente a los posibles cambios en los patrones de demanda. Costo por manejo de materiales. Longitud de los ciclos de manufactura. Capacidad para implantar reglas sencillas y eficientes para la programación y el control de las operaciones productivas. 13.3 Disposición de planta • • 363 Área utilizada (espacio). Capacidad para lograr un ambiente placentero de trabajo. Técnicas para el diseño de la disposición de una planta. Como hemos visto, para la mayoría de los caso se debe escoger, fundamentalmente, entre tres esquemas para la disposición de los departamentos de planeación de una planta: de acuerdo con el producto, el proceso y en grupos, ya que el esquema de posición fija está limitado a la producción específica de bienes de gran tamaño. Una vez seleccionado el esquema de disposición (o los esquemas, en caso de que se desee utilizar esquemas híbridos), se deben identificar, de manera más precisa, una buena disposición de las instalaciones y una organización adecuada de las estaciones de trabajo que permitan lograr los objetivos estratégicos de la empresa. A continuación se exponen las técnicas más difundidas para resolver tres problemas fundamentales del diseño de la disposición de la planta: el balanceo de las líneas de producción, la disposición f ísica de los departamentos de planeación y la formación de familias de productos para la creación de células de manufactura. El problema de balanceo de líneas de producción (que se describe con detalle a continuación) tiene particular importancia cuando adoptamos un esquema de disposición de acuerdo con el producto, ya que un balanceo adecuado permite una mejor utilización de los recursos de mano de obra y de equipo disponibles. La disposición f ísica de los departamentos de planeación tiene particular importancia cuando se está utilizando un esquema de disposición de acuerdo con el proceso, ya que la disposición de los departamentos influye directamente en los costos por transporte y por manejo de materiales. Por último, como es de esperarse, la formación de familias de productos tiene relevancia cuando adoptamos un esquema de disposición por grupos. Por otro lado, debido a que existen diferentes medidas de desempeño en la disposición de una planta que, a menudo, pudieran estar en conflicto, otra de las herramientas más útiles para evaluar la disposición de una planta es la simulación de sistemas (véase capítulo 12). Balanceo de líneas: el esquema de disposición de una planta de acuerdo con el producto (llamado línea de producción) se diseña en función de la secuencia de operaciones necesarias para producir un producto específico. Una de las razones por las que una línea de producción es eficiente es porque hace uso del principio de la división del trabajo. Es decir, la manufactura de un artículo en particular no se realiza en forma de proyecto, manufacturando en secuencia uno por uno todos los componentes del artículo y ensamblando luego las piezas para obtener el producto final; si se trabajara de esta manera, la tasa de producción sería muy baja y estaría determinada por el ciclo de manufactura del producto. En cambio, en una línea de producción el trabajo se distribuye entre estaciones de trabajo (véase figura 13.12) que trabajan simultáneamente, en cada una de las cua- 364 FIGURA 13.12 Línea de producción con estaciones en serie Capítulo 13 Diseño de planta Estación A Estación B Estación C les se realiza parte del trabajo total. De esta manera, la tasa de producción de la línea ya no depende del ciclo de manufactura del producto, sino del tiempo que permanece un artículo en la estación de trabajo más tardada (el llamado cuello de botella), el cual es siempre menor que el ciclo de manufactura, ya que en cualquier estación de trabajo se realiza sólo parte del trabajo total. En este punto, es conveniente definir de manera más precisa el concepto de estación de trabajo. Estación de trabajo: una estación de trabajo de un sistema de producción está formada por un operador y por el ambiente de trabajo que se le ha asignado (espacio y equipo) para realizar su trabajo. Es conveniente recordar que en una estación de trabajo se pueden ejecutar diferentes operaciones (con la única condición de que las ejecute el mismo operador). Por lo mismo, es fácil imaginar que si se desea incrementar la capacidad de producción de una línea, se podría lograr reduciendo la duración del cuello de botella, lo que es posible si se divide el trabajo de esta estación en dos o más estaciones de trabajo (en serie). En el caso en el que el trabajo asignado a esta estación sea indivisible, aún queda otra alternativa: asignar varias estaciones en paralelo que realicen la misma función (véase figura 13.13), aunque esta última alternativa implica una mayor inversión en equipo. Otro concepto necesario para poder definir el problema de balanceo es el llamado ciclo del balanceo. Como se indicó, la tasa de producción de la línea está determinada por la duración de la estación de trabajo más tardada (el cuello de botella); esta duración recibe el nombre de ciclo del balanceo. En una línea de producción, el cuello de botella marca el ritmo de producción, trabajando a máxima capacidad, mientras las demás estaciones experimentan tiempos ociosos, ya que sus duraciones son menores. Una característica deseable de la línea de producción es que no se experimenten tiempos ociosos excesivos. Por lo que se ha dicho, la tasa de producción de una línea es más alta a medida que se crean más estaciones de trabajo en serie; esto es, se divide Estación B1 Estación A Estación C Estación B2 FIGURA 13.13 Línea de producción con estaciones en paralelo 365 13.3 Disposición de planta más el trabajo. Sin embargo, esta mayor división requiere de más personal —que ocasiona un mayor costo— para operar las distintas estaciones; por otro lado, no se gana nada al dividir el trabajo de una estación si ésta no reduce el ciclo del balanceo, ya que esto último sólo ocasionaría un mayor tiempo ocioso en las estaciones que se han creado. En consecuencia, la mejor estrategia para diseñar una línea (que se entenderá como el problema del balanceo de la línea) dada una tasa de producción deseada, que determina el máximo ciclo del balanceo que se puede tener, se determina por medio de una configuración de estaciones que minimiza el tiempo ocioso total. De acuerdo con esta definición, se necesita medir el tiempo ocioso. Suponiendo que una línea de producción consta de n estaciones en serie con duraciones d1, d2, …, dn, respectivamente, donde la mayor duración es el ciclo de balanceo c, el retardo del balanceo se define por: ⎛ nc − ∑n di i =1 R=⎜ ⎜ nc ⎝ ⎞ ⎟ 100% ⎟ ⎠ (13.3) Como se puede apreciar, el retardo del balanceo es el porcentaje de tiempo ocioso total en la línea, ya que en el denominador de la ecuación (13.3) figura el tiempo que consumen todas las estaciones y en el numerador figura el tiempo total ocioso de las estaciones (tiempo consumido menos tiempo efectivo de trabajo). Ejemplo 13.5. Cálculo del retardo del balanceo Supongamos que el ensamble de un producto requiere de tres operaciones indivisibles en serie (véase figura 13.14). Por lo tanto, la mayor tasa de producción se obtendría si asignamos una estación de trabajo para cada operación (n 3), las cuales tienen las duraciones d1 0.8, d2 0.5 y d3 0.3. De esta manera, el ciclo del balanceo sería c 0.8, y si consideramos un turno de cuatro horas con una eficiencia de 80%, la tasa de producción por turno sería de: P (4)(60)(0.8)/(0.8) 240 unidades, con un retardo de: R= 3(0.8) − (0.8 + 0.5 + 0.3) 100 = 3% 3(0.8) Si asignamos una estación de trabajo para la primera estación y otra estación de trabajo para la segunda y la tercera operaciones en conjunto, tendríamos sólo dos estaciones (n 2) con duraciones d1 0.8 y d2 0.5 Operación 1 FIGURA 13.14 Operaciones de una línea de ensamble Duración 0.8 min Operación 2 Duración 0.5 min Operación 3 Duración 0.3 min 366 Capítulo 13 Diseño de planta 0.3 0.8 y un ciclo de balanceo c 0.8, por lo que la tasa de producción sería también de 240 unidades por turno. En cambio, se estarían utilizando sólo dos estaciones, lo que implica un menor costo por operarios y, como se muestra a continuación, un retardo del balanceo menor, ya que: R= 2(0.8) − (0.8 + 0.8) 100 = 0% 2(0.8) Se puede reducir aún el número de estaciones a uno, obteniendo también un retardo de cero, pero debemos notar que, en este caso, la tasa de producción disminuye, ya que c 1.6 y, en consecuencia, se producirían P (4)(60)(0.8)/(1.6) 120 unidades por turno. Con este ejemplo se puede apreciar la importancia del balanceo, ya que, como se ha visto, con un balanceo de línea adecuado se ahorran costos sin sacrificar la tasa de producción. En la práctica es muy dif ícil obtener un retardo de cero en la línea, fundamentalmente por dos razones. La primera es que tendríamos que ser muy afortunados para obtener duraciones de estaciones exactamente iguales al ciclo del balanceo necesario para lograr la producción deseada. La segunda razón es que si se toma en cuenta que existen relaciones de precedencia entre las operaciones necesarias en la línea, el espacio de posibilidades se reduce, ya que no es posible asignar una operación a una estación si en las estaciones previas no se han ejecutado todas las operaciones que se requieren para poder ejecutar ésta. Reconociendo que es muy dif ícil que exista un balanceo perfecto, se podría intentar modelar el problema de encontrar el mejor balanceo (menor retardo), dado un ciclo máximo del balanceo, como un problema de programación lineal entera (véase Winston, 2004); sin embargo, el exagerado número de variables y de restricciones que debe introducirse hace que, para la mayoría de los problemas prácticos, estas formulaciones no puedan resolverse en un tiempo moderado de cómputo. Ante la imposibilidad práctica de utilizar métodos exactos para resolver el problema del balanceo cuando hay muchas estaciones de trabajo, se han ensayado métodos heurísticos para atacar este problema, los cuales no aseguran que se encuentre el óptimo pero dan buenos resultados en la práctica y requieren de un tiempo de cómputo razonable. Las heurísticas más difundidas para el problema de balanceo son las de la regla del candidato de mayor duración y el método de ordenamiento de los índices de posición (ambas pueden consultarse en Sule, 2001). Evaluación de los costos por transporte de materiales. Una decisión que influye directamente en el nivel de productividad que alcanza una planta es la relacionada con la disposición f ísica de los departamentos de planeación, buscando no incurrir en un costo excesivo por el manejo y por el transporte de materiales entre los diferentes departamentos de planeación. 13.3 Disposición de planta 367 Si bien no se dispone de métodos para encontrar una disposición que minimice, en el sentido estricto del término, el costo de transporte, es posible intentar evaluar el costo de las diferentes alternativas propuestas para apoyar el proceso de la toma de decisiones. En términos sencillos, se puede pensar que si existe una alta interacción entre dos departamentos de planeación (un alto volumen de materiales a transportar), estos departamentos deben localizarse f ísicamente uno cerca del otro; el problema es que, típicamente, todos los departamentos interaccionan entre sí, y la cercanía a un departamento puede implicar la lejanía de otro. Es por esta razón que antes de tomar la decisión sobre la disposición f ísica de las instalaciones aconsejamos realizar un análisis más riguroso, como el que se presenta en este apartado. Esta decisión es de particular relevancia para los esquemas de disposición de acuerdo con el proceso, ya que, como se ha visto, bajo este esquema el transporte entre los departamentos de planeación (talleres) es una fuente importante de costo. Antes de presentar una metodología para estimar el costo de transporte de acuerdo con una disposición de planta, se debe recordar que éste depende estrechamente de la mezcla de la producción, por lo que en las plantas en las que se requiere de flexibilidad para responder a los cambios en los patrones de la demanda es conveniente evaluar los costos para distintos escenarios, suponiendo diferentes niveles de producción para las distintas líneas. Para evaluar el costo de transporte bajo una disposición de planta se requieren los datos del volumen que se transportará por unidad de tiempo (por ejemplo, mensual o anual) entre cada pareja de departamentos de planeación (los cuales deben ser estimados en función de los requerimientos de transporte entre los departamentos de planeación, para cada línea de producto) y sus volúmenes de producción (estimados). De acuerdo con esta información se pueden sugerir los siguientes pasos para obtener una disposición de los departamentos de planeación que proporcione un bajo costo por transporte y por manejo de materiales: 1. Diseñar una disposición tentativa. 2. Calcular las distancias entre cada pareja de departamentos de planeación (el resultado será una matriz de distancias). 3. Multiplicar la distancia entre cada pareja de departamentos de planeación por el correspondiente volumen de transporte entre los mismos (el resultado será una matriz de costos). 4. Calcular el costo total de acuerdo con la matriz de costos. 5. Utilizar los datos de la matriz de costos para proponer cambios en la disposición, que disminuyan el costo de transporte, y repetir el procedimiento hasta encontrar una disposición satisfactoria. Se debe indicar que para calcular la distancia entre dos departamentos de planeación, se acostumbra tomar la distancia entre sus correspondientes 368 Capítulo 13 Diseño de planta centros de gravedad, lo que equivale a suponer que los flujos de transporte se distribuyen uniformemente dentro de las áreas de los departamentos. Asimismo, no se acostumbra utilizar la distancia euclidiana como medida de la distancia entre dos puntos, sino la distancia rectangular (como en el siguiente ejemplo), debido a que ésta es más apropiada para representar los movimientos en una planta, donde, por lo general, no se puede viajar en línea recta entre dos puntos, sino utilizando corredores o pasillos. En el siguiente ejemplo se ilustra la aplicación de la metodología propuesta. Ejemplo 13.6. Disposición de una planta maquiladora Una empresa dedicada a la manufactura de artefactos electrónicos para el hogar desea instalar una planta maquiladora en México para producir equipos de sonido, teniendo como objetivo el abastecimiento del mercado del TLC. La planta se abastecerá fundamentalmente de los principales insumos: planchas de acero, tarjetas y componentes para los equipos, por lo que los principales procesos que se instaurarán en la planta serán el formado (corte y estampado), maquinado y tratamiento superficial de las planchas de acero, así como el ensamble y el acabado de los equipos. Teniendo en cuenta estas consideraciones y la capacidad planeada de la planta, se ha determinado que ésta debe constar de ocho talleres, cuyos requerimientos de espacio se presentan en la tabla 13.8. Los talleres de la planta deberán construirse en una superficie rectangular de 65 m de frente por 40 m de fondo (el requerimiento total de espacio es de 2400 m2). Una primera propuesta para la disposición de la planta se presenta en la figura 13.15. Debe resaltarse que esta disposición se presenta en un eje cartesiano con la finalidad de facilitar el cálculo de las distancias entre los talleres. Asimismo, se respetan los requerimientos de espacio presentados en la tabla 13.8. Para evaluar el costo de esta disposición, se requieren las estimaciones de los volúmenes de material que serán transportados de un taller a otro. Estas estimaciones (en m3 al mes) se presentan en la tabla 13.9, y fueron obtenidas a partir de las demandas estimadas de cada modelo de equi- TABLA 13.8 Talleres de una planta maquiladora Taller Espacio requerido (m2) Taller Espacio requerido (m2) Recepción (R) 240 Galvanizado (G) 240 Maquinado (M) 360 Pintura (P) 180 Formado (F) 480 Ensamble (E) 480 Limpieza (L) 120 Almacén (A) 300 369 13.3 Disposición de planta 40 R 30 M F 20 G P L 10 A FIGURA 13.15 Primera propuesta para la disposición de la planta E 0 0 10 20 30 40 50 60 po de sonido que se va a producir, así como de los requerimientos de transporte dentro de la planta para cada uno de ellos. A continuación, se deben calcular las distancias entre los talleres. Por ejemplo, para calcular la distancia entre los talleres de formado y de galvanizado se necesitan obtener los centros de gravedad de ambos talleres, que son el promedio de las coordenadas de los cuatro vértices correspondientes, debido a que los talleres tienen forma rectangular. Teniendo en cuenta que las coordenadas del taller de formado son (0, 12), (0, 36), (20, 12) y (20, 36), el centro de gravedad resulta (10, 24); de manera similar, el centro de gravedad del taller de galvanizado resulta (30, 18). Para calcular la distancia se utiliza la llamada distancia rectangular (véase la sección anterior “Técnicas para la exploración geográfica” en este capítulo); de esta manera, la medida de distancia apropiada entre los talleres de formado y de galvanizado es la distancia rectangular entre sus centros de gravedad: |10 30| |24 18| 26. Las distancias entre los talleres relevantes para esta primera disposición se presentan en la tabla 13.10. TABLA 13.9 Requerimientos de transporte entre talleres (carga/mes) R M F L G P E A Recepción (R) 0 200 100 0 0 0 0 0 Maquinado (M) — 0 150 0 350 60 20 0 Formado (F) — — 0 200 100 0 250 0 Limpieza (L) — — — 0 500 0 200 0 Galvanizado (G) — — — — 0 50 400 0 Pintura (P) — — — — — 0 300 0 Ensamble (E) — — — — — — 0 600 370 Capítulo 13 Diseño de planta TABLA 13.10 Distancias entre talleres R M F L G P E A Recepción (R) 0 24.5 25.5 46.5 16.5 34 43.5 41 Maquinado (M) 24.5 0 46 22 32 14.5 29 61.5 Formado (F) 25.5 46 0 56 26 43.5 53 20.5 Limpieza (L) 46.5 22 56 0 30 12.5 27 59.5 Galvanizado (G) 16.5 32 26 30 0 17.5 27 29.5 Pintura (P) 34 14.5 43.5 12.5 17.5 0 14.5 47 Ensamble (E) 43.5 29 53 27 27 14.5 0 32.5 Almacén (A) 41 61.5 20.5 59.5 29.5 47 32.5 0 Por último, multiplicando cada entrada de la matriz de distancias (tabla 13.10) por su correspondiente entrada de la matriz de volúmenes de transporte (tabla 13.9), se obtiene la matriz de costos que se presenta en la tabla 13.11. Sumando las entradas de esta matriz de costos se obtiene que, para esta disposición de la planta, el índice de costo total por transporte es igual a $109 975. Observe que las entradas de la matriz de costos también pueden usarse para identificar las fuentes de costo de transporte más importantes. Por ejemplo, se puede observar que los valores más altos de la matriz de costos corresponden al transporte entre los talleres de ensamble y almacén, así como entre los de formado y ensamble, lo que sugiere que la disposición se puede mejorar si somos capaces de reducir la distancia entre estos talleres. Una disposición que toma en cuenta estas sugerencias (aunque también se TABLA 13.11 Matriz de costos de transporte ($) R Recepción (R) Maquinado (M) Formado (F) Limpieza (L) Galvanizado (G) Pintura (P) Ensamble (E) Almacén (A) 0 M F L G P E A 4900 2550 0 0 0 0 0 0 6900 0 11 200 870 580 0 0 11 200 2 600 0 13 250 0 0 15 000 0 5 400 0 0 875 10 800 0 0 4 350 0 0 19 500 0 371 13.3 Disposición de planta 40 M R 30 F 20 E G 10 FIGURA 13.16 Segunda propuesta para la disposición de la planta A P L 0 0 10 20 30 40 50 60 usan áreas no rectangulares) se presenta en la figura 13.16. El lector puede comprobar que esta disposición tiene un índice de costo total por transporte de $92 435 (que es menor que el anterior). Es conveniente mencionar que los cálculos efectuados para calcular el costo de transporte para ambas propuestas se pueden consultar en el archivo Maquila.xls (véase la página web de este libro). A partir del ejemplo anterior es fácil imaginar que existe un número bastante grande de posibles disposiciones que pueden proponerse; por ejemplo, si se tuvieran ocho posiciones fijas, existirían 8! 40 320 maneras diferentes en las que podrían arreglarse ocho talleres, lo que dificulta la posibilidad de encontrar una buena solución por medio de prueba y error. Con la finalidad de facilitar la búsqueda de una disposición adecuada de la planta, se pueden utilizar paquetes de software desarrollados para este propósito; dichos paquetes aplican heurísticas que les permiten proponer y evaluar disposiciones de la planta adecuadas para los volúmenes de transporte entre los talleres, de acuerdo con los espacios requeridos de los mismos para el problema particular en estudio. Algunos de los paquetes más conocidos son el CRAFT (Computerized Relative Allocation of Facilities), el COFAD (Computerized Facilities Design), el CORELAP (Computerized Relationship Layout Planning) y el PLANET (Plant Layout Analysis and Evaluation Technique). El lector interesado en una descripción más detallada de los métodos que utilizan estos paquetes puede consultar Sule (2001). Organización de células de manufactura. Como se indica en una sección previa, la tecnología celular o de grupos tiene como principal objetivo alcanzar una mayor flexibilidad que la línea de producción tradicional para producir diferentes componentes, utilizando las mismas instalaciones. Una célula de manufactura, como se ha visto, está destinada a la manufactura de una familia de piezas o de productos, más que a la de un solo producto en particular. Por lo tanto, un buen diseño de la misma debe tener como objetivo que los niveles de productividad que se logren en la manu- 372 Capítulo 13 Diseño de planta factura de los miembros de la familia de productos no se vea disminuida debido a las mayores exigencias de flexibilidad para producir diferentes diseños. La amplia difusión que ha tenido este esquema de disposición de las plantas ha dado lugar al desarrollo de diferentes principios y técnicas que permiten alcanzar buenos niveles de productividad bajo esta tecnología. En esta dirección, se pueden mencionar, por ejemplo, la automatización de bajo costo (para reducir los costos de apertura de procesos), el empleo de sistemas para la clasificación y la codificación de partes, y las técnicas para secuenciar la producción en células de manufactura (véase Sing y Rajamani, 1996). A partir de estas observaciones, se puede intuir que si bien la manufactura celular está demostrando en la práctica su superioridad al combinar la flexibilidad con el logro de niveles adecuados de productividad, su implantación exitosa requiere de un mayor esfuerzo de planeación, siendo los problemas más importantes (debido a sus consecuencias) el diseño de las células de manufactura y la determinación de las familias de productos que deben asignarse a las células, problemas que comentamos a continuación. Una familia de partes puede definirse como un grupo de partes que tienen algún grado de similitud, lo que permite que dicha familia pueda ser procesada económicamente dentro de una misma célula de manufactura. La similitud de los miembros de una familia puede estar en función de las características de diseño (formas parecidas o requerimientos similares de procesos), incluso podrían tener formas ligeramente distintas, pero compartir requerimientos de operaciones similares. Algunos otros factores que determinan que ciertos componentes formen parte de la misma familia son los tamaños de los lotes a producir y su frecuencia. Dado que existe una gran variedad de factores que determinan la conveniencia o la inconveniencia de considerar a las partes como miembros de la misma familia, se han propuesto diferentes métodos para atacar el problema de la organización de células de manufactura (para mayor detalle se sugiere consultar Sule, 2001). Debido a que este capítulo es una introducción al diseño de planta, no es posible hacer una presentación amplia de los modelos de optimización que sirven para resolver muchos de los problemas implícitos en el diseño de una planta. Se recomienda consultar Tompkins et al. (2003) y Sule (2001) para profundizar en dichos modelos. EJERCICIOS PROPUESTOS 1. Identifique los principales esquemas para la disposición de planta, indicando brevemente su característica distintiva. Ejercicios propuestos 373 2. ¿Cuáles son las características de un esquema de disposición de planta de acuerdo con el producto? Discuta el tipo de mercado que generalmente corresponde a los bienes producidos en plantas dispuestas de acuerdo con el producto. 3. ¿Cuáles son las características de un esquema de disposición de planta de acuerdo con el proceso? Discuta el tipo de mercado que generalmente corresponde a los bienes producidos en plantas dispuestas de acuerdo con el proceso. 4. ¿Cuáles son las características de un esquema de disposición de planta en grupos? Discuta el tipo de mercado que generalmente corresponde a los bienes producidos en plantas con manufactura celular. 5. Una cadena de tiendas de autoservicio posee cinco tiendas en una ciudad. Actualmente, el traslado de las mercancías hacia las tiendas se realiza desde las ubicaciones de los proveedores (que están fuera de la ciudad) hacia cada una de las tiendas, lo que ha generado problemas de costos elevados y atención poco eficiente de los pedidos, por lo que la cadena ha decidido establecer un almacén de consolidación, desde el cual se atenderán eficientemente los pedidos. A continuación se presentan las coordenadas (en kilómetros) de las cinco tiendas, así como sus demandas anuales de transporte (estimadas en camiones al año). Tienda Ubicación Demanda 1 (20, 5) 120 2 (18, 15) 250 3 (3, 16) 160 4 (3, 4) 110 5 (10, 20) 200 a) Determine la localización del almacén de consolidación utilizando el centroide. b) Los planes de expansión de la cadena incluyen la incorporación de una nueva tienda en la ubicación (30, 30), con una demanda esperada de 250 camiones de mercancía al año. ¿Cuál sería la ubicación del almacén si se considera esta información? 6. Una empresa de cemento desea incursionar en el mercado del sur del país y desea instalar uno o dos almacenes para satisfacer sus pedidos. Se han ubicado cuatro ciudades importantes en el sureste (que denotaremos por comodidad como M1, M2, M3 y M4), teniendo dos plantas para abastecer estos almacenes (denotadas P1 y P2). La localización geográfica de estos puntos (unidades en km) y los volúmenes estimados de transporte anuales (en envíos de 50 ton) se detallan a continuación. 374 Capítulo 13 Punto Diseño de planta Coordenada en X Coordenada en Y Volumen a transportar P1 640 500 1000 P2 1100 1050 900 M1 320 1200 400 M2 900 1100 500 M3 680 1050 600 M4 1200 800 400 a) Determine la mejor localización del almacén, si la empresa localizara un solo almacén que reciba todos los envíos desde las dos plantas y los distribuyera a los cuatro mercados. b) Determine la mejor localización de dos almacenes, si la empresa decide explorar esta posibilidad bajo la siguiente política de distribución: un almacén recibiría la producción de P2 y la distribuiría a M1 y M2, y el otro almacén recibiría la producción de P1 y la distribuiría a M3 y M4. 7. Una compañía dedicada a la comercialización de textiles experimenta una demanda más o menos constante, la cual puede pronosticarse con relativa facilidad. La compañía posee dos proveedores: P1 y P2, quienes abastecen la demanda de cuatro grandes tiendas departamentales: T1, T2, T3 y T4. La dirección de la empresa ha autorizado la construcción de uno o dos almacenes para atender los pedidos de estas tiendas, y se requiere encontrar la localización más conveniente. La localización geográfica (en coordenadas) de los proveedores y de las tiendas se ilustra en la gráfica siguiente (unidades en decenas de kilómetros) y los volúmenes de transporte (en camiones al mes) se detallan en la tabla. P2 T1 (130,130) T2 (35,120) (90,110) T3 (60,96) T4 (80,75) P1 (65,40) 375 Ejercicios propuestos Plantas Producción (camiones/mes) Mercados Demanda (camiones/mes) P1 20 T1 5 P2 10 T2 8 T3 6 T4 11 El costo de transporte se estima en $5 por camión, por cada 10 kilómetros de viaje, mientras que la amortización del costo de construcción de un almacén se estima en $30 000 al mes, más $10 por camión de transporte al mes (considerando el personal y los gastos generales). Se considera que la distancia en línea recta es una buena aproximación a la distancia de viaje. a) Utilizando el centroide, determine la localización del almacén si se instalara uno solo. Calcule el costo total de esta política, con base en las estimaciones de costo proporcionadas. b) Considere la política bajo la cual se instalan dos almacenes. Un almacén recibiría 16 camiones al mes de P1, y los distribuiría a T3 y T4, mientras que el otro recibiría la producción restante y la distribuiría a las otras tiendas. Utilizando el centroide, determine la mejor localización de los dos almacenes. c) Determine cuál de las políticas, a o b, es la más económica. 8. Una empresa distribuidora de alimentos del mar desea establecer una planta para congelar y empaquetar langostas en la Isla Margarita. Las langostas son traídas desde siete diferentes bahías, de manera que si el origen se establece en la primera bahía, las coordenadas de las bahías (en kilómetros) y la oferta estimada de envíos por semana son las siguientes: Bahía Coordenadas Oferta 1 2 3 4 5 6 7 (0, 0) (4, 2) (6, 4) (5, 7) (4, 0) (0, 6) (7, 7) 6 5 4 10 7 5 7 a) Considerando que cualquier distancia entre la bahía y la planta será medida como distancia euclidiana, determine la mejor posición para la planta. b) Si un gerente insiste en que la planta debería instalarse en la primera bahía (ya que tiene muy buena vista), y se estima un costo de $100 por cada kilómetro que recorre un envío (debido, fundamentalmente, al deterioro de las langostas), compare el costo de la política obtenida en a contra el costo en que se incurriría si se instalara la planta en la primera bahía. 376 Capítulo 13 Diseño de planta 9. Una estación de carros para transporte debe ubicarse en el interior de un almacén. Se desea establecer la estación de manera que se minimice el costo de viaje desde las estaciones de los operadores, ubicadas como se ilustra en el siguiente cuadro: Operador Localización Operador Localización 1 (16, 16) 6 (32, 16) 2 (4, 4) 7 (20, 4) 3 (8, 16) 8 (24, 16) 4 (12, 24) 9 (36, 24) 5 (16, 24) 10 (24, 8) a) Si las estaciones 1, 3, 5, 7 y 9 demandan el carro cuatro veces al día en promedio, y las restantes cinco veces al día en promedio, determine la ubicación de la estación de carros para minimizar el costo por viajes. b) Se desea explorar la posibilidad de abrir dos estaciones de carros, una para atender a los operadores 1, 2, 3, 4 y 5, y la otra para atender a los operadores restantes. Determine la mejor ubicación para las dos estaciones. Si la empresa estima en $1 el costo por metro recorrido, calcule el costo en que se incurre en el caso a y compárelo con el de disponer estas dos estaciones (considere que cada viaje tiene ida y vuelta). 10. Una empresa textil tiene ocho telares, con una disposición de planta como la que se ilustra en la figura. El control de los telares se ubica en las posiciones denotadas Oi, y los operadores caminan a través de siete corredores (líneas gruesas en el diagrama). O6 O5 O4 O1 O2 O3 O7 O8 Las máquinas operan automáticamente, pero requieren la atención de un operador de mantenimiento cuando el proceso detecta una falla. Las posiciones de los controles, así co- Ejercicios propuestos 377 mo las frecuencias promedio diarias con que las máquinas requieren servicio, se proporcionan en la siguiente tabla: Máquina (i ) Estación de control (Oi) Frecuencia diaria de servicio 1 (0, 0) 3 2 (4, 0) 2 3 (8, 0) 2 4 (8, 7) 1.5 5 (4, 7) 2.5 6 (0, 7) 2.5 7 (0, 5) 4 8 (0, 2) 3.5 Cuando una máquina requiere servicio, ésta desperdicia materiales, de manera que el costo es proporcional a la demora del viaje, estimándose en $40 por unidad de viaje (no existe costo por el viaje de regreso a la estación del operador). El salario de un operador es de $120 al día. Cuando un operador termina el servicio de una máquina, regresa a su estación para verificar si otra máquina requiere servicio. a) Determine la posición de la estación del operador que minimice los costos de viaje, bajo la política de contratar un solo operador para las ocho máquinas. b) Considere ahora la posibilidad de contratar un operador para las máquinas 1, 2 y 3, otro operador para las máquinas 4, 5 y 6, y otro operador para las máquinas 7 y 8. Determine las posiciones de las estaciones que minimicen el costo. ¿Qué política, a o b es la más adecuada? 11. Una empresa consultora desea instalar dos oficinas en su piso principal, una para el Gerente Corporativo (GC) y otra para el Director de Operaciones (DO). En la siguiente tabla se muestra el número de viajes esperado (por día) entre las oficinas existentes en el piso (secretaría: SE, sistemas: SI, contabilidad: CO y ventas: VE) y las dos nuevas oficinas, así como los centros de gravedad de cada oficina ya instalada (coordenadas en metros). 378 Capítulo 13 Diseño de planta Número de viajes Oficina Coordenadas GC DO SE (1, 1) 10 15 SI (1, 8) 8 7 CO (8, 1) 12 10 VE (14, 1) 7 6 GC — — 6 DO — 6 — Se supone que los viajes se hacen por pasillos (distancias rectangulares). a) Sin considerar la nueva oficina del DO, encuentre la mejor localización para la oficina del GC (respecto de las otras oficinas ya existentes). b) Considerando su respuesta en a, encuentre la mejor localización para la oficina del DO respecto de las otras cinco oficinas. c) Considerando su respuesta en b, vuelva a localizar la oficina del GC, pero ahora respecto de las otras cinco oficinas. ¿Esta solución es mejor que la encontrada en b? 12. Se desea construir una planta en un terreno rectangular de 65 m por 40 m, y se han presentado dos disposiciones de planta para los talleres, como las que se ilustran a continuación. 40 R 30 M F 20 G P L 10 E A 0 0 10 20 30 40 Disposición A 50 60 379 Ejercicios propuestos 40 M R 30 F 20 E G 10 P A L 0 0 10 20 30 40 50 60 Disposición B En la tabla se presentan los requerimientos estimados de transporte y manejo de materiales (en toneladas al mes) desde cada taller hacia los demás. Rec. Maq. For. Recepción 200 100 Maquinado 150 Formado Limpieza Galvanizado Pintura Ensamble Lim. Gal. Pin. 350 60 20 200 100 250 500 Ens. Alm. 200 50 400 300 600 a) Encuentre un estimado del costo de la disposición A, teniendo en cuenta que el costo es proporcional a la distancia de viaje por el volumen de transporte. b) Compare el costo de la disposición A con el de la disposición B. Nota: el centro de gravedad de dos regiones, es el promedio ponderado de los centros de gravedad de las regiones, donde la ponderación es el área de las regiones. 13. Una compañía de seguros está diseñando sus nuevas oficinas. Para ello llevó a cabo un muestreo en los últimos tres meses y se obtuvieron los siguientes viajes de coordinación (por mes) entre los empleados de la compañía: 380 Capítulo 13 Diseño de planta A Empleado A B 10 C D E F 75 140 Empleado B 95 Empleado C 130 Empleado D 10 130 Empleado E 95 4 C F A B E D 3 2 1 0 0 1 2 3 4 5 6 7 8 9 La gráfica corresponde a una disposición tentativa sugerida por uno de los empleados para localizar las oficinas. a) Calcule la matriz de distancias (rectangulares) entre las oficinas. b) Calcule la matriz de costos para la disposición sugerida por el empleado. c) Proponga un intercambio entre las oficinas que mejore la disposición sugerida, calculando la matriz de costos y el costo total para la nueva disposición. Referencias Bramel, J. y Simchi-Levi, D. (1997). The Logic of Logistics. Springer Verlag, Nueva York. Ross, S. A., Westerfield, R. W. y Jordan, B. D. (2001). Fundamentos de finanzas corporativas, 5a. Ed. McGraw-Hill, México. Sing, N. y Rajamani, D. (1996). Cellular Manufacturing Systems Design Planning and Control. Springer Verlag, Nueva York. Sule, D. R. (2001). Instalaciones de manufactura: Ubicación, planeación y diseño, 2a. Ed. Thomson Learning, México. Tompkins, J. A., White, J. A., Bozer, Y. A. y Tanchoco, J. M. A. (2011). Planeación de instalaciones, 4a. Ed. Cengage, México. Winston, W. L. (2005). Investigación de operaciones. Aplicaciones y algoritmos, 4a. Ed. Cengage, México. CAPÍTULO 14 Producción y cadena de suministro AUTORES: Dr. Omar Romero Hernández Dra. María Cristina Gigola Paglialunga 14.1 14.2 14.3 14.4 Introducción Pronóstico de la demanda Planeación agregada de la producción Administración de inventarios 14.5 Plan maestro de la producción (PMP) 14.6 Planeación de requerimiento de materiales y JIT 14.7 Administración de la cadena de suministro 14.8 El efecto bullwhip 14.9 Estrategias de sincronización de la cadena de suministro 14.1 Introducción En los últimos años las empresas están en un proceso de alta competitividad, por lo que requieren una estrategia diseñada expresamente para mejorar su desempeño. Una parte de la estrategia de negocios y una de las principales tareas del ingeniero es el diseño y control de la cadena de suministro. Un diseño adecuado debe considerar las relaciones entre la demanda del producto, los recursos humanos y materiales necesarios para la producción, los requerimientos de materia prima y transporte, los niveles de inventario y la secuenciación de las operaciones, entre otros. Este capítulo presenta algunas herramientas y conceptos básicos que permiten al ingeniero familiarizarse con la toma de decisiones relativas al control de inventarios, el manejo de materia prima, así como la producción y distribución de productos y servicios, de una manera organizada y en el contexto de una cadena de suministro eficiente. 14.2 Pronóstico de la demanda La predicción y toma de decisiones correctas son fundamentales en el funcionamiento de una empresa, y es justo ahí en donde radica el trabajo del 382 Capítulo 14 Producción y cadena de suministro “pronóstico de demanda”. Pronosticar significa predecir acontecimientos futuros, éste es el primer paso para realizar una correcta planeación de las actividades y de los recursos necesarios para que las organizaciones satisfagan su mercado. Un buen pronóstico es la base para contestar las siguientes preguntas: ¿qué recursos se necesitan?, ¿en qué momento y en qué proporción se necesitarán?, ¿cómo utilizar los recursos existentes?, ¿cuántos adicionales adquirir? La siguiente sección presenta algunos conceptos introductorios sobre los elementos a considerar para la predicción de la demanda, así como algunas herramientas cualitativas y cuantitativas que permiten la realización de un pronóstico. 14.2.1 La demanda El pronóstico de la demanda no puede ser visto como un asunto trivial, debido a sus implicaciones en la empresa y a las dificultades inherentes a un buen pronóstico. A pesar de que en muchas ocasiones se cuente con datos históricos o patrones establecidos, siempre existe el riesgo de nuevos acontecimientos que pueden distorsionar los patrones de demanda establecidos. La tarea del ingeniero es adelantarse a los cambios en la demanda y mantenerse al tanto del entorno del mercado y de las herramientas de análisis que surgen cada día. Patrones de la demanda. En muchas ocasiones se cuenta con datos sobre el comportamiento anterior de la demanda, a los cuales se suele denominar datos históricos. Éstos se obtienen para periodos específicos, como por ejemplo, la demanda en un mes, en un año, etc. Estos datos, ordenados en forma cronológica, constituyen lo que se conoce como una serie de tiempo. Estas series, a su vez, presentan diferentes patrones o comportamientos; los más comunes se presentan en la figura 14.1 y se enuncian a continuación: Aleatoriedad: se observa un comportamiento errático de los datos; los cambios en la demanda no son predecibles. Tendencia: la demanda aumenta (o disminuye) a una tasa relativamente constante a través del tiempo. Estacionalidad: la demanda presenta picos o valles en ciertos meses del año debido a cambios de estación (productos de moda), a condiciones climáticas o a situaciones establecidas cada año, como el inicio de clases o el fin de año. Ciclicidad: los cambios en la demanda son menos predecibles, ésta aumenta o disminuye gradualmente. Este comportamiento se observa cuando se cuenta con datos históricos de varios años (en lugar de meses); también suele ajustarse a comportamientos económicos en algunos países. 383 Cantidad Cantidad 14.2 Pronóstico de la demanda Tiempo a) Estacionaria b) Tendencia Cantidad Año 1 Cantidad Tiempo Año 2 E F M A M J J A S O N D 1 2 3 4 Meses Años c) Estacionalidad d) Ciclicidad 5 6 FIGURA 14.1 Patrones de la demanda Una serie de tiempo puede presentar uno o varios de estos patrones; cuando ninguno de ellos se presenta se dice que la serie es estacionaria, es decir, la demanda se comporta de manera estable, con una media y una varianza constantes en el tiempo. 14.2.2 Métodos para pronosticar la demanda En general, hay dos métodos para pronosticar la demanda: los cualitativos y los cuantitativos. La decisión en torno a un método o el otro depende del intervalo de tiempo necesario para que la estrategia empresarial tenga un efecto, es decir, del horizonte de planeación que se tenga, ya sea de largo o de corto plazo. Aunque ambos métodos se pueden utilizar de manera combinada, se observa que por lo general los métodos cualitativos tienen mayor relevancia en decisiones de largo plazo, mientras que los cuantitativos son indispensables en decisiones de corto plazo. Métodos cualitativos. Los métodos de pronóstico cualitativos se basan en las percepciones y juicios de valor que se construyen a partir del entorno, en los factores que determinan la demanda y en la presencia o ausencia futura de éstos. Generalmente se usan para tomar decisiones a largo plazo y se presentan en la siguiente tabla: 384 Capítulo 14 Producción y cadena de suministro Método Estimación educada Juicio unipersonal basado en la sola experiencia e intuición. Usualmente funciona en plazos cortos y cuando las planeaciones erróneas no tienen costos elevados. Ejemplo: el dueño de la cafetería de la escuela sabe que el periodo de exámenes finales se acerca y que los estudiantes consumen más estas bebidas energizantes en esa temporada. Consenso del comité ejecutivo Varios especialistas de diferentes departamentos dentro de la empresa forman un comité que desarrollará el pronóstico de ventas. Método Delphi El resultado de este método es determinado por el consenso de las respuestas obtenidas de los especialistas en cuestionarios respondidos de manera anónima. Cada miembro responde a una misma pregunta por ronda; las respuestas son discutidas de manera grupal, con lo que se determina la tendencia del pronóstico. Estimaciones de la fuerza de ventas El pronóstico obtenido es resultado del estimado a vender por los miembros de la fuerza de ventas. Encuesta a consumidores Se ponderan las respuestas obtenidas por los consumidores del producto: cuánto pretenden consumir. Es una investigación directa con los clientes. Analogía histórica Con frecuencia se usa en el pronóstico de productos nuevos. Se hace el pronóstico con base en los niveles de ventas de un producto similar durante su ciclo de vida. Investigación de mercados Se divide en estudios de mercado y pruebas de mercado. El estudio de mercado está basado en los cuestionarios, entrevistas y estadísticas directamente aplicados entre los consumidores, y las pruebas de mercado son determinadas por la aceptación de un producto lanzado en pequeñas regiones representativas. En ambos casos se pretende determinar el comportamiento del mercado. Métodos cuantitativos. Los métodos de pronóstico cuantitativos, también llamados modelos causa-efecto, corresponden a modelos matemáticos de regresión o ajuste. En términos generales, el pronóstico de la demanda se obtiene a partir de datos históricos, por ejemplo, la historia de las ventas en el tiempo de una empresa o producto. Éstos se utilizan para decisiones de corto plazo, a continuación se enumeran los más sencillos: Regresión lineal: con este modelo es posible encontrar la relación (lineal) entre una variable dependiente (la demanda en este caso) y una independiente, que representa un factor que influye sobre la variable independiente (el precio del producto, por ejemplo). La relación se obtiene a través del método de mínimos cuadrados. Un modelo de regresión simple es aquel que considera una única variable independiente; un modelo de regresión múltiple incluye más de una variable independiente. Promedio móvil (moving average): el pronóstico para la demanda de hoy es resultado del promedio de ventas de cierto número de periodos pa- 385 14.3 Planeación agregada de la producción sados. Por ejemplo, tomemos los datos de ventas de una empresa que se muestran en la tabla siguiente. Para pronosticar las ventas en el periodo 9, utilizando un criterio de cuatro semanas, es necesario calcular: (100 90 105 93)/4 97 Semana 1 2 3 4 5 6 7 8 Ventas 50 75 95 80 100 90 105 93 Promedio móvil ponderado (weighted moving average): este modelo es muy parecido al anterior, la diferencia radica en que en éste se calcula un promedio ponderado; por lo regular, a los últimos periodos se les asigna mayor importancia. Por ejemplo: Semana 1 2 3 Ventas 76 48 93 0.25 0.30 0.45 Ponderación El pronóstico para la semana 4 es: 0.25(76) 0.30(48) 0.45(93) 75.25. Suavizamiento exponencial: el pronóstico para un periodo es un promedio ponderado de la última observación y los pronósticos previos, que resultan en un promedio ponderado de todos los datos del pasado, pero con mayor peso en los más recientes. Es importante mencionar que los pronósticos por lo general son erróneos debido a la gran cantidad de factores y variables que pueden intervenir. En consecuencia, se indica que todo buen pronóstico deberá contener una medida del error asociado al mismo (típicamente, la desviación estándar) y de la variabilidad asociada a los valores promedio calculados a partir de los métodos cuantitativos. 14.3 Planeación agregada de la producción Una vez establecido el pronóstico de la demanda, el ingeniero deberá enfrentarse al problema de la planeación de la producción. El principal objetivo de la planeación agregada de la producción (PAP) es determinar cuál es la combinación óptima entre la tasa de producción, el nivel de fuerza de trabajo y el inventario disponible. Existen tres estrategias que se pueden utilizar cuando se elabora un plan agregado de producción. Estrategia de persecución de la demanda: el nivel de la fuerza laboral se ajusta a cada periodo en función de cambios anticipados en la demanda. Esto significa que la empresa contrata o despide empleados conforme a sus requerimientos de producción. 386 Capítulo 14 Producción y cadena de suministro Mano de obra o tasa de producción constante: el número de trabajadores se mantiene constante durante todo el horizonte de planeación. Mixta: combina las otras dos, su objetivo es encontrar la combinación que genere el costo más bajo. 14.3.1 Unidad agregada de producción (UAP) La política de un PAP se basa en las unidades agregadas de producción, éstas corresponden a unidades agregadas de productos similares o con alguna característica en común, típicamente llamados familias o clases de productos. Por ejemplo, si una empresa se dedica a la manufactura de electrodomésticos y tiene diferentes modelos, la UAP podría ser, simplemente: número de electrodomésticos, toneladas de producto, horas-hombre de trabajo o valor del producto. Para poder realizar un análisis del problema de la planeación agregada, es necesario considerar los siguientes aspectos: Problemas de cuello de botella. Emerge de cambios imprevistos en la demanda, que no pueden ser resueltos por restricciones en la capacidad, por ejemplo equipo averiado. Horizonte de planeación (T ). Cuando el horizonte de planeación es muy corto, los niveles de producción no serán adecuados para satisfacer la demanda más allá de T, la contraparte sería cuando el horizonte de planeación es muy largo y, en consecuencia, los pronósticos de la demanda son imprecisos. Demanda determinada. Una suposición básica en la elaboración de los planes agregados de producción es que la demanda está determinada y se conoce. Esto permite enfocar el plan hacia cambios sistemáticos, que de otra manera no podrían analizarse; sin embargo, el ingeniero deberá tener presente la posibilidad de errores en el pronóstico de la demanda. 14.3.2 Costos asociados Debido a que el problema del plan agregado tiene que ver con la optimización de recursos, es necesario llegar a un resultado que minimice los costos. Por esto es importante definir qué costos se van a tomar en cuenta para hacer este análisis. Los análisis básicos asociados a la elaboración de las PAP asumen relaciones lineales en los costos. A continuación se presentan los más comunes: • • Costos de suavizamiento. Resultan de un cambio en la producción y los niveles de trabajo de un periodo al otro. Los más importantes corresponden a los costos por contrataciones y despidos (Ch y Cf, cost of hiring y cost of firing, respectivamente). Costos de mantener el inventario (Ci). Es proporcional al número de unidades, se mantiene en inventario al final de cada periodo. 387 14.3 Planeación agregada de la producción $ Costo Pendiente Cf FIGURA 14.2 Pendiente = Ch Ft = cantidad de despidos • • • • Ht = cantidad de contrataciones Costo de faltantes y penalización (Cp). Ocurre cuando la demanda no se satisface por completo y comúnmente representa una penalización a la empresa (ventas perdidas). Este costo es proporcional al número de unidades faltantes. Costo de tiempo regular (CR). Costo de producir una UAP durante horas normales de trabajo, sin incurrir en tiempos extras ni en tiempos inactivos. Costo de tiempo extra (Co). Es el costo por producir una UAP en tiempo irregular. Costo de subcontratación (Cs). Costo de comprar una UAP a un tercero. 14.3.3 Generación de planes agregados Para ilustrar la metodología a seguir en la realización de planes agregados, se presentará un ejemplo que será resuelto conforme a la estrategia de per- $ Costo Pendiente Cp FIGURA 14.3 Inv. positivo Pendiente = Ci Inventario Inv. negativo 388 Capítulo 14 Producción y cadena de suministro secución. Posteriormente, el mismo ejemplo será resuelto mediante una estrategia de mano de obra constante. La última parte de esta sección presentará las ventajas y desventajas de cada plan, y la necesidad de incorporar estrategias mixtas y de programación lineal. Estrategia de persecución de la demanda. Una empresa latinoamericana se dedica a la producción de tres modelos distintos de calentadores eléctricos. Se observa que el tiempo de producción de cada calentador es similar y que las diferencias entre los tres modelos se deben a la etapa de terminado. La empresa ha decidido realizar las estimaciones de demanda considerando una unidad agregada de producción equivalente a un calentador eléctrico. La información de la demanda agregada para los siguientes seis meses se muestra en la siguiente tabla: Mes Días laborables Demanda pronosticada 1 22 1500 2 24 800 3 17 750 4 20 1300 5 18 950 6 15 2000 Actualmente la empresa cuenta con 400 trabajadores, el inventario al inicio del periodo (mes 0) es de 300 unidades y se desea un inventario de 500 unidades a fines del semestre. Después de varias observaciones y cálculos de tiempo y movimientos, se sabe que un obrero produce 0.2 unidades al día. Los costos asociados a este problema son: costo de contratar un obrero $500; costo de despedir un obrero $1000; costo de mantener una unidad en inventario $90/mes. La siguiente tabla muestra el plan agregado de producción que resulta mediante una estrategia de persecución, en la cual, durante cada periodo, se contrataron o despidieron los obreros requeridos para cumplir exactamente con la demanda. Observe que la cantidad de obreros requeridos es redondeada a su entero superior para cumplir con la demanda pronosticada. En forma similar, las cantidades producidas son redondeadas a su entero inmediato inferior, ya que no se puede considerar un producto completo hasta que está 100% terminado. 389 14.3 Planeación agregada de la producción A B C D E F G H I J Mes Días de trabajo Demanda pronosticada Demanda neta Unidades producidas por obrero3 Número mínimo de obreros4 Cantidad contratada Cantidad despedida Producción F*E Inventario 1 22 1500 12001 4.4 273 — 1275 1201 1 2 24 800 800 4.8 167 — 106 801 1 3 17 750 750 3.4 221 54 — 751 1 4 20 1300 1300 4 325 104 — 1300 0 5 18 950 950 3.6 264 — 61 950 0 6 15 2000 25002 3 834 570 — 2502 2 728 294 ∑ 1500 300 1200 2000 500 2500 3 0.20 * B 1 4 2 5 5 D/E 400 273 Costo total (CT) Costo de contratar Costo de despedir Costo de inventario CT (728 obreros * $500/obrero) (294 obreros * $1000/obrero) (5 unidades * $90/unidad) $658 450 Estrategia de mano de obra constante. Se considera el mismo problema que en la estrategia anterior. Para elaborar un plan agregado de mano de obra constante, es necesario calcular el número mínimo de obreros para cada mes. De estos resultados, el mayor número debe contratarse y mantenerse durante todo el horizonte de planeación. Esto permite garantizar que se cumplirá con la demanda pronosticada en todos los periodos del plan agregado. Así, el número mínimo de obreros para cada mes está dado por la siguiente tabla: A B C D E E F Mes Días de trabajo Demanda neta Demanda acumulada Unidades producidas por obrero3 Unidades acumuladas producidas por obrero3 Número mínimo de obreros4 1 22 12001 1200 4.4 4.4 273 2 24 800 2000 4.8 9.2 218 3 17 750 2750 3.4 12.6 219 4 20 1300 4050 4 16.6 244 5 18 950 5000 3.6 20.2 248 6 15 25002 7500 3 23.2 324 390 Capítulo 14 Producción y cadena de suministro Conforme a lo anterior, se observa que el número mayor de obreros requeridos correspondió en este problema al indicado en el sexto mes. La empresa deberá asegurarse de contar en su nómina con 324 obreros. La siguiente tabla muestra los resultados del PAP. Observe que sólo ocurren contrataciones o despidos al inicio del plan agregado de producción. A D E F G H I J Mes Demanda acumulada Unidades acumuladas producidas por obrero Número de obreros Contrataciones Despidos Producción F*E Inventario1 1 1200 4.4 324 0 400 324 76 1425 225 2 2000 9.2 324 0 0 2980 980 3 2750 12.6 324 0 0 4082 1332 4 4050 16.6 324 0 0 5378 1328 5 5000 20.2 324 0 0 6544 1544 6 7500 23.2 324 0 0 7516 16 0 76 ∑ 5425 Costo total (CT) Costo de contratar Costo de despedir Costo de inventario CT (0 obreros * $500/obrero) (76 * $1000/obrero) (5425 * $90/unidad) $564 250 A partir de los dos problemas anteriores se observa que ambos planes presentan desventajas considerables. Por una parte, el plan de persecución de la demanda evita la acumulación de inventarios, debido a que cada periodo despide y contrata personal, según su pronóstico de la demanda. En la realidad, esto es dif ícil de llevar a cabo, ya que genera inestabilidad laboral en el personal y falta de motivación hacia la empresa. Por otra parte, el plan de mano de obra constante (o producción constante) mantiene una misma cantidad de empleados durante todo el horizonte de planeación, lo cual genera enormes cantidades de inventario en periodos de baja demanda y, en consecuencia, altos costos de producción. Los planes agregados de producción pueden aprovechar las ventajas de ambas estrategias y disminuir las penalidades de las mismas a partir de una estrategia mixta. En dicha estrategia la mano de obra no varía cada mes, 14.4 Administración de inventarios 391 sino que se definen periodos más amplios (trimestres, cuatrimestres o semestres). En consecuencia, se efectúan varios cambios a lo largo del horizonte de planeación para minimizar el tiempo ocioso de los empleados en periodos de baja demanda y para que, en periodos en donde ésta es alta, no falte fuerza laboral. Sin embargo, existe un gran número de posibles planes mixtos y variantes al plan agregado. Para encontrar el plan óptimo de producción el ingeniero requiere utilizar herramientas analíticas que le permitan identificar las condiciones con las cuales: los costos totales del plan alcanzan un nivel mínimo, o las utilidades totales de la empresa alcanzan un nivel máximo. Esto se puede lograr, inicialmente, a partir del planteamiento de problemas de programación lineal, en los cuales se fija una función objetivo, las restricciones del sistema y las condiciones iniciales y finales. Es importante notar que uno de los principales factores que influyen en cualquier plan agregado de producción es el inventario. Esto se debe a que afecta directamente la disponibilidad de material para seguir produciendo, además, los costos asociados a éste podrían ser muy altos. Este tema se tratará en la siguiente sección. 14.4 Administración de inventarios El manejo de inventarios desempeña una importante función en el éxito de una empresa. La política de inventarios debe ser seleccionada cuidadosamente por los departamentos de mercadotecnia, operaciones y finanzas. La selección del nivel adecuado de inventario no es trivial y obedece a intereses cruzados. Por un lado, mantener altos niveles de inventario puede ocasionar grandes costos, pero por otro lado bajos niveles podrían representar falta de materias primas, ventas perdidas y mal servicio al cliente. 14.4.1 Categorías de inventario Dependiendo de la naturaleza y el propósito de los productos a almacenar, existen tres categorías de inventario: • • • Materias primas: inventario de insumos necesarios en la producción. Producto en proceso: inventario de productos que no han pasado por todas las etapas de producción. Producto terminado: artículos listos para venderse. 14.4.2 Consideraciones para seleccionar un nivel de inventarios El cuadro siguiente muestra las ventajas asociadas a cada nivel de inventarios (alto o bajo). 392 Capítulo 14 Producción y cadena de suministro Inventarios altos Inventarios bajos Servicio al cliente: se favorece la entrega a tiempo, evita faltantes que resultan en la pérdida de una venta y que se pierdan clientes por entregas atrasadas. Reduce los costos por mantener inventario, éstos son: intereses o costo de oportunidad; para financiar inversiones en inventario, las empresas suelen recurrir a préstamos. Asimismo, la inversión representa la falta de inversión en otros activos de la empresa. Costos por orden: con altos niveles de inventario se incurre en costos relacionados con la compra, seguimiento, recepción y papelería. Almacenaje y manejo: el costo por mantener el almacén (renta, insumos, seguros, etc.) es proporcional al número de unidades. Preparación: reduce costos por limpieza, mantenimiento entre corridas de producción y, en consecuencia, disminuye tiempos muertos en mano de obra y equipo. Impuestos y seguros: éstos son proporcionales a la cantidad de inventario. Costo de transporte: transportar más material provoca una reducción en el costo unitario de transporte y la repetitividad en los pedidos. Mermas: robo hormiga, obsolescencia y deterioro. Pago a proveedores: normalmente al hacer pedidos grandes se obtienen descuentos. 14.4.3 Tipos de inventario Inventario de ciclo: varía en relación con el tamaño del pedido o lote. Un ciclo se considera como el tiempo entre pedidos. Inventario de seguridad: nivel mínimo de inventario que se mantiene para apoyar el servicio a clientes y evitar distorsiones en la línea de producción. Inventario anticipado o de previsión: su objetivo es evitar cambios bruscos en los niveles de producción. Los excedentes de producción de meses anteriores están orientados a satisfacer una demanda futura, particularmente en artículos cíclicos o de temporada. Inventario en tránsito: consiste en aquellos pedidos que han sido realizados, pero están en ruta (no han sido entregados). 14.4.4 Determinación del nivel de inventarios Modelo EOQ (cantidad económica del pedido). Éste es el modelo básico para analizar distintos tamaños de pedido (Q), su objetivo es determinar el mejor nivel de inventarios y, en consecuencia, el tamaño del pedido que minimiza los costos de inventario. Existe una serie de supuestos y simplificaciones que permiten utilizar el modelo EOQ, entre las que destacan: • • La tasa de demanda es conocida y constante. No existen restricciones en cuanto al tamaño del lote (pedido). 393 14.4 Administración de inventarios Orden recibida Tasa de demanda Inventario a la mano (unidades) Q FIGURA 14.4 Modelo EOQ Inventario de ciclo promedio Q — 2 1 ciclo • • • Tiempo Los únicos costos relevantes son el costo por manejo de inventario y un costo fijo por lote. Las decisiones de suministro de un artículo A son independientes del artículo B. No hay incertidumbre en los tiempos de entrega o suministro. El comportamiento básico del nivel de inventario de un producto se muestra en la figura 14.4. En esta figura se observa una caída lineal en el nivel de inventario proporcional a la tasa de demanda. Asimismo, se observa que en el momento en que el nivel de inventario es cero, coincide con la llegada de la siguiente orden, la cual tiene un tamaño (Q). Este comportamiento se repite a lo largo de varios ciclos. Al mantenerse el supuesto que la demanda es conocida y constante a lo largo de los ciclos, se obtiene la cantidad promedio a mantener en inventario, también conocida como inventario de ciclo promedio (Q/2). Las consideraciones anteriores permiten identificar el tamaño del pedido (Q) que mejor conviene a la empresa en términos de costos. El costo total de manejo de inventarios considera dos componentes principales: el costo por mantener inventario y el costo por ordenar. El comportamiento de estos costos es opuesto conforme aumenta el tamaño del lote (Q). Por una parte, el costo por mantener resulta de multiplicar el inventario de ciclo promedio (Q/2) por el costo unitario por manejo de inventario en un periodo (H). Mayores valores de Q ocasionan mayores costos de manejo de inventario (HC). Por otra parte, el costo por ordenar representa el costo por pedido (S) y el número de veces que se ordena en un año (periodo). A su vez, el número de veces que se ordena es resultado de dividir la demanda entre el tamaño del lote (D/Q). Como puede notarse, mayores valores de Q indican un menor número de pedidos al año y, en consecuencia, menores costos de ordenar o preparar (OC). 394 Capítulo 14 Producción y cadena de suministro Costos anuales Costo total = HC + OC Costos de mantener inventario (HC) Costos de ordenar (OC) FIGURA 14.5 Modelo EOQ Tamaño del lote (Q) El comportamiento de ambos costos, así como el costo total de inventarios con respecto al tamaño del lote (Q), se muestran en la figura 14.5. Existen varias formas de determinar el tamaño óptimo de lote en el que se minimizan los costos de inventario (EOQ). Una alternativa sería el método gráfico, en donde se suponen distintos valores de Q y se calculan: costos de manejo de inventario, costos de ordenar o preparar y costos totales. La EOQ corresponderá al punto en el que los costos por mantener inventario y el costo por ordenar son iguales y corresponden al menor valor de los costos totales. Una segunda alternativa es el método analítico y la deducción de una fórmula para determinar la EOQ. El procedimiento consiste en: • • • • Plantear la ecuación de costos totales de inventario. Derivar la función con respecto al tamaño del lote (Q). Igualar la función a cero e identificar el punto de inflexión. Despejar el valor de Q. Estos cuatro pasos se muestran a continuación: CT HC OC CT [(Q/2)H] [(D/Q)S] dCT/dQ [H/2] [(D/Q2)S] 0 Q= 2 DS = EQO H La fórmula anterior es consistente y permite determinar qué cantidad deberá solicitarse a los proveedores, de forma tal que se minimicen los costos de administración de inventario. Sin embargo, todavía queda un punto a considerar: el sistema para controlar el inventario. 14.4 Administración de inventarios 395 14.4.5 Sistemas de control del inventario Existen básicamente dos alternativas para el control de inventarios: el sistema de revisión continua y el sistema de revisión periódica. En el primero se cuenta con información sobre la posición del inventario en todo momento. Así, el sistema basa su funcionamiento en la determinación de un punto de reorden. Una vez que la posición del inventario disminuye hasta un valor equivalente al punto de reorden, se levanta un pedido. En el segundo sistema no se cuenta con información en línea sobre la posición del inventario, lo cual obliga a determinar el periodo de revisión más conveniente para la empresa (P), quedando preestablecido (por ejemplo, cada semana o cada mes), y se levanta un pedido de un tamaño equivalente al necesario para alcanzar un nivel de inventario objetivo. Ambos sistemas se muestran con mayor detalle a continuación. Sistema de revisión continua (Q ). También conocido como sistema de punto de reorden (ROP). Selecciona un nivel mínimo de inventario (punto de reorden) que indica el momento en que se debe ordenar una cantidad fija (Q) del artículo en cuestión. La posición del inventario (IP) mide la capacidad para satisfacer la demanda: IP OH SR BO Donde SR es igual a las recepciones programadas, OH es el inventario disponible y BO son órdenes atrasadas. Cuando IP es igual al punto de reorden (R) se debe colocar el pedido. Selección de R cuando la demanda (D) es conocida: si no hay incertidumbre en el tiempo que se tarda el proveedor en entregar, entonces no es IP Inventario a la mano (unidades) Orden recibida Q OH R Orden colocada L FIGURA 14.6 Revisión contInua TBO 396 Capítulo 14 Producción y cadena de suministro IP Inventario a la mano (unidades) Orden recibida FIGURA 14.7 Revisión continua. Incertidumbre en la demanda IP Orden recibida Orden recibida Orden recibida Q OH Q Q R Orden colocada Orden colocada Orden colocada L1 TBO 1 L2 TBO 2 L3 Tiempo TBO 3 necesario mantener inventario de seguridad y el punto de reorden será igual a la demanda durante el tiempo de entrega. ROP Demanda durante tiempo de entrega Selección de R cuando la demanda es incierta: cuando la demanda (D) no se conoce con certeza, es necesario mantener un inventario de seguridad, por eso el punto de reorden resultará de sumar la demanda promedio durante el tiempo de entrega más el inventario de seguridad. El nivel de inventario de seguridad depende del nivel de servicio deseado y del grado de la incertidumbre en la demanda. El algoritmo básico para el cálculo del inventario de seguridad y posteriormente el nivel ROP es el siguiente: ROP Demanda durante tiempo de entrega Inventario de seguridad Suponiendo que la demanda durante el tiempo de entrega se comporta conforme a una distribución normal, entonces se tendrá la siguiente expresión: ROP = DL + zs L En donde DL representa la demanda promedio durante el tiempo de entrega, Z es el número de desviaciones estándar con respecto a la media (la cual se puede consultar en tablas de distribución normal); σ es la desviación estándar de la demanda y L representa el tiempo de entrega. Sistema de revisión periódica (P ). Es conocido también como sistema de reorden a intervalos fijos. Su principal característica es que los pedidos se 397 14.4 Administración de inventarios Inventario a la mano (unidades) T Orden recibida Orden recibida Orden recibida Q3 Q1 Q2 Orden colocada Orden colocada L L P L Tiempo P FIGURA 14.8 Revisión periódica colocan al final de cada revisión, lo que significa que el tamaño del pedido (Q) puede cambiar, pero el tiempo entre cada orden es fijo. Bajo este sistema se revisa la posición del inventario cada periodo (P) y se coloca una orden de tamaño T IP, donde T es el nivel de inventario objetivo, es decir, el IP deseado después de cada orden. La descripción de este sistema se ilustra en la figura 14.8. En este sistema persisten cuatro suposiciones del modelo EOQ. No existen restricciones en cuanto al tamaño del pedido. Son significativos los costos por manejo del inventario y el costo por pedido. Las decisiones del artículo A son independientes del artículo B. No hay incertidumbre en los tiempos de entrega. Para seleccionar el tiempo entre revisiones (P) se puede designar cualquier intervalo conveniente según el tipo de negocio, o se puede ajustar tomando como base el modelo EOQ, es decir, definir el periodo entre revisiones como: (P EOQ/D). Al seleccionar el nivel de inventario deseado (T) es necesario tomar en cuenta que la nueva orden debe ser suficientemente grande para que el nivel de inventario dure hasta después de la próxima revisión, la cual se encuentra a P periodos del tiempo de distribución. Esto se conoce como el intervalo de protección y se define como L P. De manera similar al sistema de revisión continua, las siguientes dos ecuaciones estiman el nivel de inventario deseado ante un comportamiento de la demanda certero o con incertidumbre: T Demanda durante el intervalo de protección (L P) T = DL+ P + zs L + P 398 Capítulo 14 Producción y cadena de suministro 14.4.6 Manejo de inventarios Al manejar inventarios de manufactura es necesario determinar qué cantidad de inventario manejar en materias primas, productos en proceso y productos terminados. Los gerentes determinan estos niveles clasificando los artículos como especiales o estándar. Para un artículo especial se ordena sólo la cantidad suficiente para cubrir los requerimientos de los clientes, es decir, tienen un nivel de inventario más bajo. Los artículos estándar son fabricados para acumular inventario, es decir, siempre están disponibles. Otro asunto de interés para el ingeniero es determinar el manejo y control de inventarios cuando se cuenta con cientos o miles de productos distintos en el almacén. Debido a que no todos los productos tienen la misma importancia para la empresa, el primer paso consiste en clasificarlos. El análisis ABC permite clasificar los productos de acuerdo con un criterio de valor monetario u operativo que establece su importancia para la organización: utilidad generada, demanda, costo, valor del producto, riesgo o combinaciones de los anteriores. Clasificación ABC. Cuando el inventario consta de diferentes productos, mediante esta técnica es posible identificar los artículos que necesitan mayor atención y control. Los productos se clasifican conforme al principio de Pareto, en el cual se establece que un pequeño porcentaje de artículos representa un alto porcentaje del valor total y viceversa. Conforme a lo anterior, los artículos se dividen en tres categorías: la categoría A, que representa aproximadamente 80% del valor; la categoría B, de aproximadamente 15% del valor, y la categoría C, que representa 5% del valor. Uno de los criterios más usados es el uso monetario, que resulta de multiplicar la demanda del producto por su precio o costo. Para calcular el uso monetario es necesario utilizar una tabla como la siguiente: Artículo Precio (unidades) Demanda anual (unidades al año) Uso monetario anual Uso monetario acumulado Porcentaje total 1 P1 D1 U1 P1 * demanda 1 U1 U1/∑U 2 P2 D2 U2 U1 U2 U2 /∑U … … … … … … n Pn Dn Un U1 U2 … Un Un /∑U Es necesario ordenar los artículos del mayor uso monetario al menor. Para realizar un análisis ABC, son necesarios los siguientes pasos: 1. Seleccionar el criterio; por ejemplo: costo, frecuencia de uso, valor monetario, riesgo, aportación, utilidades, importancia estratégica. 14.4 Administración de inventarios 399 % valor acumulado 100% 90% 70% C B A % acumulado artículos FIGURA 14.9 Análisis ABC 2. Ordenar los productos según el criterio. 3. Calcular porcentajes. 4. Establecer clases: A, B y C (o más). Por lo general, la división de artículos y su relación con el criterio se comportan conforme a la figura 14.9. La curva generada por la clasificación de los artículos permite establecer las siguientes conclusiones generales en cuanto a cada uno de los tres tipos de artículos: A Los de mayor valor y que requieren mayor control. B De menor valor y que requieren control normal. C De poco valor y que requieren un control muy simple. Es importante precisar algo importante sobre los artículos tipo C. A pesar de no ser los de mayor importancia, algunos artículos tipo C pueden requerirse en inventario por: • • • • • Ser más importantes que lo que la clasificación indica. Estar asociados a artículos clasificados en A. Originar grandes utilidades. Ser artículos nuevos. Ser refacciones importantes. El siguiente ejemplo ilustra los pasos requeridos para la clasificación ABC por uso monetario de 10 artículos. 400 Capítulo 14 Producción y cadena de suministro TABLA 1 Análisis ABC Categoría % de artículos % de artículos acumulados % por valor % por valor acumulado A 10 10 70 70 B 20 30 20 90 C 70 100 10 100 TABLA 2 Costo y demanda T1 T2 T3 Costo unitario (S) 3 2 3 8 2 10 1 5 20 4 Demanda semanal (*100) 2 25 1 30 10 10 5 2 1 3 T1 T2 T3 6 60 3 Artículo T4 T5 T6 T7 T8 T9 T 10 TABLA 3 Uso anual Artículo Uso anual T4 240 T5 20 T6 100 T7 5 T8 10 T9 20 T 10 12 Uso anual Costo unitario por demanda Uso anual 3 2 6 Artículos reordenados conforme a su uso anual: Uso anual Costo unitario por demanda Uso anual 8 30 240 T4 T6 T2 % acumulado de artículos 10 20 30 40 50 60 70 80 90 100 Uso anual 240 100 50 20 20 12 10 6 5 3 Uso acumulado 240 340 390 410 430 442 452 458 463 466 % anual de uso acumulado 52 73 84 88 92 95 97 98 99 100 Categoría A B B C C C C C C C Artículo T5 T9 T10 T8 T1 T7 T3 14.4.7 Otros modelos de inventario El manejo de inventarios y su administración comprende muchas otras situaciones y modelos también relevantes para el ingeniero. Estos modelos cubren situaciones más reales y eliminan algunas de las suposiciones deri- 14.5 Plan maestro de la producción (PMP) 401 vadas del modelo EOQ. Posiblemente, tres modelos que forman parte de cualquier curso introductorio a inventarios serían: Reabastecimiento no instantáneo. Diseñado para situaciones en las que el artículo se produce dentro de la empresa, por lo que cada unidad puede emplearse tan pronto como esté lista; es decir, no hace falta esperar a que el lote esté terminado. Modelo de descuentos. Supone que el proveedor ofrece diferentes precios, dependiendo del tamaño del pedido; es decir, hace descuentos por cantidad. Modelo del periodiquero. Se aplica a bienes perecederos, como la comida, o con ciclos de vida cortos, como los artículos de moda o los periódicos. Este modelo permite seleccionar la cantidad de pedido que maximiza la utilidad esperada, tomando en cuenta dos factores: por un lado, se evita comprar artículos de más, puesto que no se podrán vender los excedentes (nadie querrá comprar un periódico del día anterior), o comprar muy poco, ya que se perderían ventas. Además de los modelos anteriores, existen otros que en su mayoría corresponderán a situaciones más específicas o a adaptaciones de los modelos anteriores. Es responsabilidad del ingeniero conocer los principios de cada modelo e identificar el más adecuado para cada propósito dentro de su empresa. 14.5 Plan maestro de la producción (PMP) Una vez determinado el plan agregado de producción y el papel que representan los inventarios dentro de la empresa, es necesario familiarizarse con el concepto de plan maestro de la producción (PMP). EL PMP permite alcanzar los objetivos de la empresa y determinar con mayor detalle los requerimientos y disponibilidad de cada artículo (desagregado) dentro de la empresa. 14.5.1 Elaboración de un plan maestro de producción Para elaborar un plan maestro de producción (PMP) primero es necesario cuantificar el inventario proyectado y, después, establecer los días y el tamaño de la producción. Al inventario proyectado al final de este periodo es necesario sumarle el inventario al final del último periodo y la cantidad que quedó pendiente en el plan maestro de producción al inicio de este periodo, y luego restar los requerimientos proyectados para este periodo. Posteriormente, se deben establecer los días y el tamaño de la producción. El propósito principal es que nunca falte inventario disponible; por 402 Capítulo 14 Producción y cadena de suministro ejemplo, si se espera insuficiencia en el inventario, será forzoso planear el requerimiento de materiales para compensarla. Para ello se utiliza la planificación de requerimientos de materiales (MRP, siglas del inglés material requirement planning). A continuación se muestra un ejemplo. Plan maestro de producción para las semanas 1 y 2. Semana 1 2 Pronóstico 45 50 Pedidos 47 45 Cantidad disponible 50 3 (50 0 47) 3 (3 0 50) 47* Inventario proyectado disponible Cantidad en el MPS * El pronóstico es mayor que los pedidos, el inventario proyectado disponible es negativo. La insuficiencia debe ser resuelta programando una cantidad en el MPS que habrá de terminarse en la semana 2. 14.6 Planeación de requerimiento de materiales y JIT El plan de requerimiento de materiales y los sistemas justo a tiempo son dos sistemas comúnmente adoptados en las empresas para el suministro de materiales y las operaciones. 14.6.1 Planeación de requerimiento de materiales (MRP) Se utiliza para administrar inventarios supeditados a una demanda dependiente. Los elementos del inventario tienen una demanda dependiente, porque dependen de la demanda de otros elementos. Por ejemplo, el requerimiento de llantas para una fábrica de automóviles depende de la demanda de éstos. El auto, o cualquier producto que se fabrica con una o varias partes, se llama elemento padre; las llantas o las ventanas son componentes. El sistema MRP estima la demanda de los componentes en función del pronóstico de la demanda de los elementos padres. Información requerida. El sistema MRP requiere de una lista de materiales, de los planes maestros de producción y de los registros de inventario. Con esta información y la demanda independiente del componente (para refacciones y mantenimiento) se determina la demanda de los componentes y se elabora un plan de requerimientos de materiales. 403 14.6 Planeación de requerimiento de materiales y JIT Lista de materiales (BOM): en esta lista se enumeran los componentes de un elemento padre y las cantidades de uso (número de componentes necesarios para producir el elemento padre). Plan maestro de producción (PMP): el PMP especifica la cantidad de elementos a producir y el momento en el tiempo requerido. Registro de inventario: el registro de inventario detalla la política del tamaño de pedido, el tiempo de entrega, los pedidos, las entregas esperadas, los retiros de inventario y las revocaciones de pedidos, entre otros. En este registro todo está ordenado por fases de tiempo. Elementos del plan de requerimientos de materiales. Existe un registro de MRP para cada componente, en él se encuentran: • • • • • Requerimientos brutos, que resultan de la demanda de los elementos padres. Recepciones programadas de pedidos que han sido hechos, pero no se han recibido. Inventario proyectado disponible, que ya se ha explicado previamente en este capítulo. Recepciones planeadas de pedidos que no se han hecho, pero que se harán para impedir insuficiencias en el inventario proyectado disponible. Pedidos planeados, que indican el momento en que se debe hacer un pedido. A continuación se presenta el ejemplo de un registro de planificación de requerimientos de materiales: Semanas 1 2 3 4 5 Requerimientos brutos 270 0 0 150 0 Recepciones programadas 350 Inventario proyectado disponible (10) 90 90 90 40 40 Recepciones planeadas Pedidos planeados 100 100 En este ejemplo, el tiempo de entrega de un pedido es de dos semanas, y la política de inventarios establece un tamaño de lote de 100 unidades. 14.6.2 Sistemas justo a tiempo (JIT) Los sistemas justo a tiempo JIT (por sus siglas en inglés de just in time), también llamados inventario cero o sistemas kanban, buscan la eficiencia en la producción, con el propósito de mejorar la calidad de los productos o servicios. 404 Capítulo 14 Producción y cadena de suministro Los sistemas justo a tiempo tienen varias características, como: Método de arrastre. La producción se inicia a partir de la demanda del comprador. Este método es recomendable para procesos repetitivos y con tiempos cortos; por ejemplo, para una empresa de comida rápida. Cuando los procesos no tienen estas características, se utilizan métodos de empuje, en los que se inicia la producción antes que se presente la demanda, como ocurre con el método MRP. Calidad consistentemente alta. Los sistemas JIT tienen como objetivo mantener siempre buena calidad, evitando sobrantes y la exigencia de inspección del trabajo. Para lograr esto es necesario aplicar métodos como la administración de la calidad total (TQM). Lotes de tamaño pequeño. Los sistemas JIT no utilizan inventarios de seguridad, pero sí inventarios de ciclo pequeños. Esto genera una reducción del tiempo de entrega y en el tiempo de procesamiento. Cargas uniformes en la estación de trabajo. Con los sistemas JIT, la cantidad de trabajo diaria de las estaciones de trabajo se vuelve relativamente semejante. Esto se debe a que se realiza el mismo tipo de ensamble y un número de unidades constante diariamente. Componentes y métodos de trabajo estandarizados: Relaciones estrechas con proveedores: necesarias para conservar un número de proveedores pequeño y mantener buenas relaciones con ellos. Fuerza de trabajo flexible: las empresas que utilizan sistemas JIT tienen empleados capacitados para cumplir diversas funciones. MRP II y ERP. Actualmente, un número considerable de empresas ha identificado el importante mercado que representan los programas de gestión de empresas. Empresas como SAP, JB Edwards, People Soft, Oracle, entre muchas otras, se han enfocado hacia el desarrollo continuo de nuevos productos que combinen, en un mismo software, información financiera, contable, producción, logística y recursos humanos. Bajo estos esquemas se busca integrar en un solo sistema las distintas áreas funcionales de la empresa. Este sector representa una de las principales áreas de desarrollo dentro de la administración de operaciones y la generación de sistemas para planeación y control de la producción. 14.7 Administración de la cadena de suministro Los conceptos relacionados con las secciones anteriores forman sólo una parte de las áreas profesionales de la ingeniería industrial. Sin embargo, no es suficiente con generar un producto, lo más importante es hacerlo de forma eficiente, en un tiempo razonable y a entera satisfacción del cliente; es decir, tenerlo listo en la cantidad y el momento que el cliente lo desee y a un precio competitivo. 14.7 Administración de la cadena de suministro 405 Desde hace varias décadas ha cobrado auge el estudio de conceptos logísticos, de distribución y, en general, de manejo eficiente de productos, servicios y de información. En la actualidad, estos flujos se agrupan bajo el concepto de administración de la cadena de suministro. La cadena de suministro es el conjunto de organizaciones e individuos comprendidos en el flujo de productos, servicios, dinero y la información relacionada, desde su origen (proveedores) hasta el consumidor final. Se trata de un modelo conceptual que integra todos los procesos vinculados con proveedores, plantas de manufactura, centros de almacenamiento, distribuidores y detallistas, con el objeto de que los bienes sean producidos y distribuidos en las cantidades adecuadas, en los lugares y tiempos correctos, con rentabilidad para todas las entidades relacionadas y cumpliendo con los niveles de servicio requeridos para satisfacer al consumidor final (Simchi Levi et al., 2003). La administración de la cadena de suministro consiste, entonces, en planear, instaurar y controlar eficiente y eficazmente estos flujos en y entre los componentes de la cadena. Pero la cadena es una red compleja y dinámica de instalaciones, organizaciones e individuos, con objetivos distintos y generalmente en conflicto: bajo costo unitario de producción, nivel de servicio alto y poco inventario. La forma más sencilla de obtener bajos costos unitarios es produciendo en lotes grandes, lo que resulta en periodos con altos inventarios si la demanda no es estable; con lotes pequeños se puede caer fácilmente en el desabasto y en demérito de los niveles de servicio. El reto es sincronizar la demanda con la oferta para encontrar un balance entre estos objetivos; cuando algún miembro de la cadena produce, adquiere más allá de la demanda real o reduce demasiado su inventario intentando minimizar costos locales, toda la cadena sufre el efecto. Se requiere integración dentro de la empresa, colaboración entre las organizaciones y sincronización de todo el sistema para lograr flujos de productos e información sin interrupción, sin cuellos de botella. Es importante notar que el consumidor final forma parte de la cadena de suministro; la demanda del consumidor final es el motor de la cadena y ésta no sólo depende del precio o la disponibilidad del producto, sino también del mercado y la economía en su conjunto (Gigola, 2004). Este interés creciente por adoptar el modelo de cadena de suministro se debe primordialmente a dos factores: la globalización de los mercados y el desarrollo tecnológico. El primero ha originado una fiera competencia mundial, con la proliferación de productos innovadores y con ciclos de vida cortos. La calidad del producto, antes un factor de diferenciación, hoy es una exigencia; la competencia radica ahora en la disponibilidad del producto en el lugar y el tiempo precisos. El acceso a nuevas tecnologías de información, de comunicación y de transporte permite el desarrollo de métodos y herramientas más eficientes para sincronizar la oferta y la demanda, coordinando las actividades de proveedores, productores y distribuidores. 406 Capítulo 14 Producción y cadena de suministro Las empresas ya no compiten como unidades aisladas y autónomas. La cadena de suministro es una secuencia de procesos (de productos, información y dinero) que trascienden los límites de la empresa. La organización tradicional basada en áreas funcionales (mercadotecnia, producción, finanzas, etc.) con estrategias de operación independientes y medidas de desempeño e incentivos por áreas fragmenta los procesos y sus objetivos. Una lata de refresco comprende procesos de al menos seis empresas de manufactura y 319 días de proceso total; una interrupción en el suministro de materiales e información entre cualquiera de ellas tendría repercusiones importantes en el resto de la cadena. Tradicionalmente, la industria refresquera resuelve el problema adquiriendo más envases de los requeridos para su ciclo de producción (inventarios altos) o integrándose verticalmente para producir su propia lata y desviando recursos hacia un negocio que no es el suyo. La integración colaborativa con proveedores, en un esquema de ganancias compartidas enfocado a generar flujos de valor a lo largo de la cadena con medidas de desempeño globales, proporciona una verdadera ventaja competitiva. El diseño del producto tiene implicaciones importantes en el costo de la cadena de suministro. Se dice que 80% del costo logístico proviene de la transportación, el almacenamiento y el manejo del inventario del producto, aspectos totalmente sensibles a sus características f ísicas. Dado que una buena parte de este costo se determina desde el diseño, el proceso de desarrollo de un producto debe comprender todos los componentes de la cadena de suministro en cada una de sus etapas (investigación, diseño, manufactura y lanzamiento), para asegurar la introducción rápida y exitosa al mercado con el menor costo total (Romero, 2004). Un envase muy atractivo (objetivo de mercadotecnia), pero dif ícil de embalar y estibar, puede generar un costo elevado de manejo, almacenamiento y transportación. La sociedad requiere productos respetuosos del medio ambiente. Ahora nos ocuparemos de la green supply chain, porque los problemas ambientales están vinculados con el desarrollo de nuevos productos y sus procesos de manufactura. El reciclado y reúso de productos y componentes requiere de una cadena extendida, con flujos en reversa después de la venta y del consumo, lo que da lugar a la closed loop supply chain. Con la apertura de los mercados, actualmente los proveedores, productores, distribuidores y consumidores se encuentran localizados en diferentes puntos del mundo. No es lo mismo administrar una cadena de suministro local que una global. Las distancias, los tiempos, las diferencias culturales y los cruces de frontera generan dificultades adicionales. Es, quizás, en la global supply chain donde el desarrollo tecnológico representa su mejor papel. Mediante comunicaciones en tiempo real e interconectividad en los sistemas se puede obtener integración y visibilidad total de la cadena, aun en lugares muy distantes y con sistemas diferentes. 14.8 El efecto bullwhip 407 El outsourcing o “tercerización” (third party logistics: 3PL) de ciertas actividades, como transportación y almacenamiento, es otra realidad que muchas empresas están incorporando en su estrategia, dejando estas actividades a un tercero especializado para enfocarse en su propio negocio y reducir costos. El concepto ha evolucionado, ahora un 4PL (fourth party logistics) ejerce la actividad de planificación y coordinación del flujo de información desde proveedores hasta clientes. Diseña la arquitectura logística y el sistema de información para integrar los procesos sin ejecutar los flujos f ísicos, que son confiados al 3PL. Pero quizá la realidad más visible es el desarrollo acelerado de las tecnologías de información, cada vez más accesibles a las empresas, independientemente de su tamaño. Cualquier estrategia encaminada a reducir costos, reducir tiempos de suministro y aumentar el nivel de servicio requiere del manejo de una gran cantidad de datos para generar información confiable y a tiempo (Simchi-Levi, 2003). El sistema de información desempeña una importante función en la toma de decisiones, ya que antes de cualquier cambio (desde una simple mejora de un proceso operativo hasta una reconfiguración de la cadena de suministro) es preciso hacer un diagnóstico de la situación actual, pero no hay diagnóstico sin información. Por otra parte, el flujo de información entre proveedores, productores y clientes es un factor crítico en el manejo eficiente de la cadena de suministro. Los sistemas de intercambio electrónico de datos (EDI), la Internet, los sistemas de identificación de producto por radiofrecuencia (RFID) y, en particular, el comercio electrónico ciertamente están cambiando la forma de hacer negocios. 14.8 El efecto bullwhip La figura 14.10 muestra una cadena de suministro simple de cuatro niveles y un miembro por nivel: la planta productora, un distribuidor, un mayorista y un detallista. La planta produce obteniendo materiales e insumos de sus proveedores, el consumidor final establece la demanda real y pone en funcionamiento a la cadena logística que debe mover el producto a través de los canales. ¿Qué ocurre cuando cada miembro del sistema actúa de manera independiente, tratando de optimizar su proceso, pero sin observar el efecto global? Veamos un ejemplo simple, pero no muy alejado de las prácticas comunes. El detallista se enfrenta a la demanda del consumidor final, los demás miembros de la cadena se enfrentan a la orden colocada por el nivel inmediato inferior. El tiempo de suministro (lead time) en cada nivel incluye el tiempo de entrega y el tiempo de proceso de la orden. Es importante tomar en cuenta estos dos aspectos, ya que se trata de procesos distintos que se realizan mediante entidades y actividades diferentes. El sistema de proceso 408 Capítulo 14 Producción y cadena de suministro Está montada la imagen Proveedores Tiempo de entrega Planta Tiempo de entrega Tiempo de proceso de la orden Distribuidor Tiempo de proceso de la orden Tiempo de entrega Mayorista Tiempo de entrega Tiempo de proceso de la orden Detallista Demanda FIGURA 14.10 Cadena de suministro del consumidor Consumidor de la orden es, generalmente, interno a cada miembro del sistema; el proceso de entrega de la orden depende del miembro del nivel superior, así como del modo de transportación. Esta amplificación de la variabilidad de la demanda a lo largo de la cadena, conocida como bullwhip effect, es actualmente estudiada con gran interés por los expertos en la administración de la supply chain. Del ejemplo anterior podría concluirse que el efecto es producido por un mal pronóstico de la demanda, pero esto es sólo parte del problema. Mejorar la técnica de pronóstico puede incluso empeorar la situación, si no se usa adecuadamente. Se requiere mayor coordinación y un flujo adecuado de información, como se verá más adelante. El bullwhip effect es conocido desde 1961 como efecto Forrester, quien estudia el problema desde un enfoque de dinámica de sistemas. Forrester concluye que los sistemas complejos en los que intervienen fuerzas e intereses diversos presentan un dinamismo generador de errores, inexactitudes y volatilidad en la información, que no puede ser analizado únicamente desde una perspectiva administrativa unilateral; requiere ser observado en su totalidad con un enfoque sistémico. En la década de 1990, los ejecutivos de Procter & Gamble observaron que, si bien la demanda de pañales en el mercado es estable, la demanda de sus distribuidores presentaba fuertes variaciones de un periodo a otro, provocando exceso o falta de inventarios a lo largo de la cadena, malos pronós- 14.8 El efecto bullwhip 409 ticos, capacidad insuficiente o excesiva, con niveles bajos de servicio al cliente y altos costos generales para el sistema. Ellos le dieron el nombre de bullwhip effect. El problema pasó inmediatamente a manos de académicos de prestigiadas universidades norteamericanas, quienes estos últimos años se han dedicado a identificar las causas y proponer posibles soluciones para reducir o mitigar el fenómeno. Entre las causas más significativas encontradas hasta la fecha, se mencionan las siguientes: 1. El pronóstico de la demanda y la información parcial. 2. Los tiempos de suministro (lead time) y la consolidación de pedidos (batch ordering). 3. Las fluctuaciones en los precios y las promociones. 4. “Inflar” la orden como reacción al riesgo de desabasto (shortage gaming). Estas causas también están interrelacionadas, por lo que el remedio de una puede provocar la intensificación de las otras. En las siguientes secciones se detallará cada una de las causas del efecto bullwhip. 14.8.1 El pronóstico de la demanda y la información parcial Generalmente, cada miembro de la cadena pronostica su demanda observando la orden pasada (o la histórica, en el mejor de los casos) de su cliente directo y no la demanda del consumidor final, excepto en el caso del detallista. El error en el pronóstico de su cliente se incorpora a su propio pronóstico. Algunas empresas reaccionan ante este efecto utilizando técnicas de pronósticos cada vez más sofisticadas; sin embargo, ninguna técnica de pronósticos puede evitar el efecto amplificador de la demanda cuando el error está en los datos. Una manera de contrarrestar este efecto es compartir la información real de la demanda final. Nótese, sin embargo, que aun compartiendo la misma información, si cada uno utiliza una técnica de pronóstico distinta o prácticas distintas de compras (puntos de reorden), esto puede contribuir a la variabilidad en la demanda. Otra práctica común es pronosticar la demanda para cada cliente o centro de distribución de manera separada y aun por productos individuales. La primera regla a tomar en cuenta en un pronóstico es que éste “siempre será erróneo”; por lo tanto, es preferible distribuir los errores que sumarlos. Por otra parte, una demanda mayor a la pronosticada de un cliente puede siempre ser completada con la demanda menor de otro (risk pooling). Cuando se coloca una orden se actualiza el inventario y se incluye un inventario de seguridad, cuyo monto depende no sólo de la variabilidad en la demanda, sino también de la incertidumbre y demora en los tiempos de suministro. Esto nos lleva a la segunda causa del efecto bullwhip. 410 Capítulo 14 Producción y cadena de suministro 14.8.2 Los tiempos de suministro y la consolidación de los pedidos Para cada miembro del sistema el tiempo de suministro es el resultado de dos procesos: colocar la orden al proveedor y recibirla (véase figura 14.10). El primero depende directamente de la empresa, de su sistema de proceso de la orden; el segundo, en la mayoría de los casos, del proveedor, de su proceso de surtir la orden y del sistema de transportación. El tiempo total de suministro y su variabilidad se incorporan al pronóstico de la demanda para calcular inventarios de seguridad; a mayor incertidumbre y tiempo, mayor inventario de seguridad para mantener un nivel específico de servicio al cliente. Asimismo, cuando se utiliza un sistema de máximos y mínimos en el manejo de inventarios, el proveedor observa lotes de pedidos en cierto momento del mes o de la semana, en lugar de la demanda real en el tiempo. La razón para ordenar por lotes no sólo se asocia al sistema de inventarios, sino también a minimizar los costos de transportación, de procesar órdenes más frecuentes y a obtener descuentos por compras grandes; es más barato transportar pedidos grandes poco frecuentes, que pedidos pequeños muy frecuentes; los costos de transacción no dependen generalmente del tamaño del pedido, sino de su frecuencia. Sin embargo, a pesar de que las órdenes esporádicas y grandes son más baratas, esto provoca movimientos bruscos en el inventario y mayores costos de almacenamiento, porque la demanda real no sigue este patrón. Cuando este ciclo se repite en el proveedor, el efecto se reproduce de manera cada vez más pronunciada a lo largo de la cadena. Si cada miembro de la cadena recibe órdenes que reflejen la demanda diaria real, el efecto puede disminuirse. Los costos administrativos de procesar la orden pueden reducirse con sistemas de transacción electrónicos que reducen el tiempo y el papeleo, ofreciendo descuentos por pedidos de mezclas de productos en lugar de un solo pedido grande de un solo producto. Los costos de transportación pueden reducirse consolidando la carga de varios proveedores o con el uso de proveedores de servicios de transportación, que pueden lograr economías de escala consolidando, combinando cargas pequeñas desde y hacia diferentes proveedores y clientes. 14.8.3 Las fluctuaciones en los precios y las promociones Cuando se ofrecen descuentos o promociones especiales de manera esporádica, se venden cantidades mayores durante ese periodo, las cuales se mantienen en inventario para luego no volver a comprar en los periodos siguientes. Como consecuencia, los datos muestran el patrón de ventas, pero no el de consumo, una manifestación frecuente del efecto bullwhip. Una política de “precios bajos todos los días”, por el contrario, promueve compras regulares a lo largo de la cadena, manifiesta el verdadero patrón de consumo y disminuye la variabilidad ficticia de la demanda. Los incenti- 14.9 Estrategias de sincronización de la cadena de suministro 411 vos de compra no son perjudiciales per se, un buen sistema de promociones debe estar perfectamente coordinado desde el productor hasta el detallista para evitar distorsión en la información, esto es algo que no se consigue simplemente con un sistema de punto de venta (POS), el cual captura información de las ventas, pero no de la demanda real. Recuérdese que cualquier sistema de inventarios requiere información de la demanda, no de las ventas. 14.8.4 “Inflar” la orden como reacción al riesgo de desabasto (shortage gaming) “Pedir 100 para que me manden las 50 que necesito.” Esta práctica es común cuando se sospecha que el productor o distribuidor está racionando el producto por problemas de capacidad o por posibles cambios en los precios de los materiales. El riesgo al desabasto puede ser pasajero, pero deja en el sistema información distorsionada que tarda varios periodos en estabilizarse. Esta información pasa al pronóstico y de allí al sistema de inventarios. Las consecuencias son previsibles. El proveedor puede, en este caso, surtir a partir de información histórica, en lugar de hacerlo con base en la nueva orden. Una mayor visibilidad a lo largo de la cadena que permita compartir información de ventas, inventarios, capacidad y cambios de precios es, sin embargo, la mejor manera de eliminar esta práctica y sus consecuencias. 14.9 Estrategias de sincronización de la cadena de suministro Cada empresa tiene sus propias cadenas de suministro con características particulares que dependen de los productos y su mercado, pero aun compartiendo productos y mercados, no hay empresas iguales y, por ende, tampoco un modelo de negocio que se ajuste a todas. Sin embargo, pueden identificarse problemas generales y plantearse estrategias generales que deben adaptarse a cada situación particular. Algunas prácticas que han dado resultado en la sincronización de la cadena de suministro y que han sido implementadas con éxito por algunas empresas son las siguientes: Tecnologías de información. Reducir el tiempo de suministro simplificando el proceso de colocar la orden mediante sistemas electrónicos de transferencia de información. Los sistemas de intercambio electrónico de datos (EDI) han sido utilizados por algunas empresas desde hace varios años. Hoy en día resultan caros y poco relacionados con el medio, todo parece indicar que la tendencia se inclina a usar la red Internet. Productos personalizados con entrega directa. Cuando se manejan productos muy diferenciados para los cuales es muy dif ícil pronosticar su demanda y los niveles de inventario son altos, algunos fabricantes han optado 412 Capítulo 14 Producción y cadena de suministro por un rediseño de sus productos que permite que la diferenciación se realice en niveles de la cadena más cercanos a los centros de consumo. HewlettPackard y sus impresoras constituyen un ejemplo de esta práctica. Cuando se trata de productos con un ciclo de vida muy corto, como en el caso de equipos de cómputo (Dell Computer, por ejemplo), algunas empresas han optado por un sistema de productos “a la medida” y con distribución directa. El secreto detrás de estas estrategias está en el manejo de un menor número de productos o componentes en inventario, para los cuales es más fácil pronosticar su demanda (demanda agregada). ECR (respuesta eficiente al consumidor), QR (quick response) y EDLP (every day low prices). Son algunas iniciativas implementadas con éxito en las industrias alimenticia y textil para sincronizar la cadena de suministro. Están asociadas al uso de sistemas de información (POS, EDI), cruce de andén (cross-dock) en lugar de centros de distribución tradicionales y administración de categorías de productos. CPFR (collaborative planning, forecasting and replenishment). Son planes y procesos de negocios desarrollados conjuntamente por los miembros de la cadena. Una comunicación interactiva entre las partes permite transferir pronósticos y planes promocionales de las categorías de productos, con una mejor ejecución de los planes, pronósticos más precisos, altos niveles de servicio, costos bajos y una cadena de suministro más estable. Estrategia VMI (vendor managed inventory). En esta estrategia la información se centraliza en el productor, quien monitorea los niveles de inventario del sistema y decide sobre tiempos y cantidades de entrega. Centralizar la información permite una mayor sincronización de la cadena de suministro, con economías de escala y reducción de los tiempos de espera y niveles de inventario. Requiere el uso de tecnologías de información y una relación estrecha de colaboración y confianza entre las partes, ya que, con frecuencia, el productor coloca el producto bajo “consignación”. EJERCICIOS PROPUESTOS 1. Suponga que los datos trimestrales de ventas de una empresa (en miles de unidades) en los últimos dos años son: 200, 250, 175, 186, 225, 285, 305 y 190. a) Usando promedios móviles de tres periodos, calcule los pronósticos un paso adelante para los periodos 4 a 8. b) Usando promedios móviles de cinco periodos, calcule los pronósticos un paso adelante para los periodos 6 a 8. 2. Asuma que una analista identifica distintos pesos en los últimos cuatro trimestres: 10%, 25%, 30% y 35%, respectivamente. Determine el promedio móvil ponderado del noveno trimestre. Referencias 413 3. Analice las estrategias de persecución de la demanda y mano de obra constante, ¿cuáles cree que sean sus ventajas y desventajas? ¿En qué se relacionan? 4. Una cadena de zapaterías vende cierto modelo de tenis a una tasa relativamente constante y equivalente a 70 pares por semana. Cada par les cuesta $250 y lo venden a $400. Asimismo, a la zapatería le cuesta $1800 levantar un pedido, mientras que los costos por mantener el inventario están basados en una tasa anual de interés de 16%. a) Determine el número óptimo de pares que la tienda debe comprar y el tiempo que debe transcurrir entre cada orden. b) Calcule los costos anuales por ordenar y por mantener inventario. c) Elabore un diagrama que describa este problema, suponiendo que se cuenta con un sistema de revisión continua. d) Suponga que el tiempo de entrega de cada pedido es de 1 semana y que la desviación estándar de la demanda durante el tiempo de entrega es de 20 pares por semana. Calcule el inventario de seguridad requerido para un nivel de servicio de 90% (z 1.28) y el nuevo valor del punto de reorden (ROP). 5. Mencione los cuatro tipos de inventario que existen y dé un ejemplo de cada uno de ellos. Referencias Anderson, D. R., Sweeney, D. J. y Williams, T. A. (2003). An Introduction to Management Science. Quantitative Approaches to Decision Making, 10a. Ed. Thomson, Ohio. Anupindi, R. et al. (2001). Managing Business Process Flows. Prentice Hall, New Jersey. Ballou, R. H. (1999). Business Logistics. Prentice Hall, New Jersey. Bartels, R. (1982). “Marketing and Distribution Are Not Separate”, en International Journal of Physical Distribution and Materials Management, vol. 12, pp. 3-10. Cachon, P. (1999). “Managing Supply Chain Demand Variability with Scheduled Ordering Policies”, en Management Science, vol. 45, núm. 6. Emerson, C. y Grimm, C. (1998). “The relative importance of logistics and marketing customer service: a strategic perspective”, en Journal of Business Logistics, vol. 19, núm. 1, pp. 17-32. Forrester, J. W. (1958). “Industrial Dynamics: A Major Breakthrough for Decision Makers”, en Harvard Business Review, vol. 38, julio-agosto, pp. 37-66. Gaither, N. y Frazier, G. (2002). Operations Management. Soth-Western, 9a. Ed. Thomson. Gigola, C. “Los efectos de una mala sincronización de la cadena de suministro: Bullwhip Effect”, en Escuela de Negocios, año 3, vol. 5, ITAM, México, 2001. Kahn, K. y Mentzer, J. (1996). “Logistics and interdepartmental integration”, en International Journal of Physical Distribution and Logistics Management, vol. 26, núm. 8. Knod, E. M. y Schonberger, R. J. (2001). Operations Management. Meeting Customer Demands, 7a. Ed. McGraw-Hill. Krajewski, L. y Ritzman, L. (2002). Administración de operaciones. Estrategia y análisis, 5a. Ed. Prentice Hall. LaLonde, B. (1997). “Supply Chain Management: Myth or Reality?”, en Supply Chain Management Review, Peerless Media LLC. LaLonde, B. (1998). “Supply Chain Evolution by The Numbers”, en Supply Chain Management Review, Peerless Media LLC. Lee, H., Padmanabhan, V. y Whang, S. D. (1997). “Information Distortion in a Supply Chain: The 414 Capítulo 14 Producción y cadena de suministro Bullwhip Effect”, en Management Science, núm. 43, pp. 546-558. Louis, R. S. (1997). Integrating Kanban with MRPII. Automating a Pull System for Enhanced JIT Inventory Management. Productivity Press, Portland. Monden, Y. (1990). El sistema de producción de Toyota. Instituto de Altos Estudios Empresariales, Pricewaterhouse, Macchi, Buenos Aires. Murphy, P. y Poist, R. (1996). “Comparative views of logistics and marketing practitioners regarding interfunctional coordination”, en International Journal of Physical Distribution and Logistics Management, vol. 26, núm. 8. Nahmias, S. (2003). Production and Operations Management, 4a. Ed. McGraw-Hill. Oliver, R. y Weber, M. (1982). “Supply Chain Management: logistics catches up with strategy”, en Christoper, M., Logistics. The strategy issues. Outlook, Booz, Allen and Hamilton Inc., Londres. Romero S., Gigola C., Romero O. (2004). “Incorporation of effective engineering design, environmental performance and logistic planning for products LCM”, Proceedings of the 2nd World POM Conference and 15th Annual POM Conference, Cancún. Simchi-Levi, D., Kaminsky, P. y Simchi-Levi, E. (2003). “Designing and Managing the Supply Chain”, 2a. Ed. McGraw-Hill, Nueva York. Spear, S. y Bowen, H. K. (1999). “Decoding the DNA of the Toyota Production System”, en Harvard Business Review, Boston, septiembre-octubre, pp. 97-106. Voorhess, R. y Coppett, J. (1986). “Oportunidades de la mercadotecnia y la logística en la década de los 90”, en Logística: Aspectos estratégicos. Limusa, México. CAPÍTULO 15 Simulación de sistemas AUTOR: 15.1 Introducción 15.2 Simulación estocástica de evento discreto 15.3 Simulación con Excel y VBA Dr. David Muñoz Negrón 15.1 Introducción El término sistema se utiliza en diversas disciplinas para identificar los elementos y la dinámica de un fenómeno que se pretende entender, analizar y/o diseñar, desde el punto de vista de la disciplina correspondiente. De acuerdo con Schmidt y Taylor (1970), un sistema es una colección de entes que interaccionan para lograr un objetivo. Por ejemplo, en ingeniería industrial se pueden estudiar los sistemas industriales (por ejemplo, cadenas de suministro), que constan de materias primas, recursos humanos y recursos de capital, organizados para producir y distribuir eficientemente manufacturas y/o servicios. De la misma manera, en economía se pueden estudiar los sistemas desde el punto de vista del bienestar de los agentes considerados en el fenómeno económico y, similarmente, cada disciplina estudia los sistemas desde su perspectiva. Sin duda, la humanidad ha estudiado sistemas desde épocas muy remotas. En un principio, trató de entender los sistemas naturales a través de la experimentación con el sistema real. La búsqueda de conocimiento condujo a desarrollar, primero, modelos f ísicos de sistemas (prototipos, modelos a escala, etc.) que le permitieran llevar a cabo experimentos controlados y, posteriormente, teorías y modelos matemáticos que pudieran explicar y predecir el comportamiento de los sistemas, tanto de los ya existentes como de los que se desarrollaron. Un modelo f ísico es una imitación, por lo gene- 416 Capítulo 15 Simulación de sistemas ral más simple, del sistema real, cuya experimentación, bajo condiciones controladas, permite estudiar el comportamiento del sistema de manera natural, como ocurriría con el sistema real. Un modelo matemático, en cambio, representa el sistema a estudiar por medio de relaciones matemáticas, por lo que al experimentar con el mismo se puede pronosticar el comportamiento de las variables relevantes del sistema e intuir el comportamiento del sistema, aunque no se puede reproducir f ísicamente. Uno de los propósitos de un modelo matemático es el de predecir el comportamiento de una o de varias características del sistema, usualmente conocidas como variables de respuesta, en función de ciertas variables, a menudo llamadas variables de control. Es por esto que un modelo matemático en el que a través de un conjunto de ecuaciones se expresan las variables de respuesta en función (explícita) de las variables de control es muy cómodo para predecir el comportamiento de un sistema. Se dice que el modelo tiene solución analítica cuando existe este conjunto de ecuaciones. Sin embargo, cuando se desea estudiar un sistema con mucho detalle, se deben considerar variables cuyas relaciones no son fáciles de resolver como para encontrar una solución analítica del modelo matemático. No obstante, el modelo aún puede ser útil para analizar el sistema, ya que para este propósito se han desarrollado métodos numéricos que, dados valores particulares de las variables de control, permiten calcular, por medio de una computadora, el valor de las variables de respuesta. Dentro de los métodos numéricos que se utilizan para estudiar un sistema (véase figura 15.1), la simulación tiene la característica fundamental Estudio de un sistema Experimentación real Experimentación con modelo matemático Métodos numéricos Sistema real Modelo físico • Modelo a escala • Prototipo FIGURA 15.1 La simulación como herramienta para el estudio de sistemas Simulación de sistemas Métodos analíticos Otros métodos numéricos 15.1 Introducción 417 de que el modelo que se utiliza trata de imitar el comportamiento del sistema en estudio, con el objetivo de calcular, con la ayuda de la computadora, el valor de las variables de respuesta del sistema. Por lo mismo, algunos experimentos se pueden animar, es decir, de acuerdo con los resultados que va arrojando el modelo se puede mostrar la evolución del sistema en el tiempo a través de una interfaz gráfica (véase figura 15.2). Por lo tanto, podemos imaginar que un experimento por simulación se puede convertir en un experimento virtual con muchas ventajas sobre la experimentación real, entre las que se pueden mencionar: • • • • Se puede simular el comportamiento de un sistema sin afectarlo, por lo que es menos costoso que la experimentación real. El costo relevante en la experimentación por simulación es el de desarrollo y validación del modelo, y se pueden simular muchos experimentos con costos adicionales relativamente bajos. Se puede simular el comportamiento de sistemas que no existen, por lo que la simulación es una herramienta muy útil para el diseño de prototipos y/o nuevos sistemas. La experimentación real puede entorpecer la operación normal del sistema, y en el caso de los sistemas en los que interaccionan personas, se sabe que éstas pueden cambiar su comportamiento normal al sentirse observadas. Como se muestra en la figura 15.1, actualmente en muchas industrias (por ejemplo, la automotriz), los pasos que se siguen en la práctica para desarrollar nuevos diseños son: experimentar con modelos de simulación, experimentar con modelos f ísicos y, finalmente, desarrollar el nuevo diseño. Existen muchas herramientas disponibles para generar experimentos por simulación, desde hojas de cálculo (Excel) hasta simuladores de alto nivel (véase Kelton et al., 2011) con ambientes para la animación y para la programación con elementos gráficos, que dependen del tipo de sistema que se desea simular. En este capítulo se presenta una visión general de la simulación de sistemas y de las herramientas disponibles para desarrollar experimentos por simulación. En esta sección introductoria se hace una pequeña revisión de la evolución histórica de las herramientas para simular y se mencionan los principales modelos utilizados en simulación; posteriormente, en las siguientes secciones se presentan los principios fundamentales para desarrollar y analizar experimentos por simulación, finalmente, se desarrollan ejemplos utilizando hojas de cálculo. Evolución de las herramientas para simular. Como se mencionó, la simulación de sistemas requiere del uso de la computadora. Sus inicios datan de la década de 1950, cuando se implantan en computadora los primeros métodos numéricos para resolver problemas de cálculo integral. Las primeras aplicaciones de la simulación, durante la década de 1960, se desarrollaron, fundamentalmente, en centros de investigación por personal altamente es- 418 Capítulo 15 Simulación de sistemas pecializado y, por lo general, utilizando el lenguaje FORTRAN en computadoras relativamente caras y voluminosas. En las décadas de 1970 y 1980, se reconoce el potencial de la simulación como herramienta de análisis de sistemas, se desarrollan los lenguajes para simulación y se distinguen los principales modelos usados en simulación. Como una primera clasificación de los modelos de simulación, se puede distinguir entre los modelos estáticos y los modelos dinámicos, cuya diferencia fundamental es que en los modelos estáticos no aparece el tiempo como una variable del modelo o, dicho de otra forma, un modelo estático se usa para estudiar un sistema en un instante particular, mientras que con un modelo dinámico se estudia la evolución de un sistema en el tiempo. Entre los modelos estáticos más importantes están los que aplican el método del elemento finito (véase, por ejemplo, Logan, 2012) para evaluar numéricamente sistemas cuyas variables obedecen a ecuaciones diferenciales parciales. Algunas aplicaciones del método del elemento finito se presentan en el análisis estructural de los diseños (cargas estáticas, esfuerzos y deformaciones). Entre los lenguajes más conocidos para aplicar el método del elemento finito están: ALGOR, ANSYS, IMAGES-3D, MSC/NASTRAN y STARDINE. Los modelos dinámicos más usados en simulación son el de dinámica de sistemas (traducción del término en inglés system dynamics) y el de evento discreto (traducción del término en inglés discrete event). En la simulación de dinámica de sistemas se modela el cambio de las variables en el tiempo por medio de ecuaciones diferenciales ordinarias, es por esto que los métodos numéricos que se aplican son de integración numérica (véase, por ejemplo, Logan, 2012). Entre los lenguajes más conocidos para este tipo de simulación están DYNAMO y CSSL. La simulación de dinámica de sistemas también se conoce con el nombre de simulación continua (traducción del término en inglés continuous simulation). En la simulación de evento discreto se modelan sistemas cuyas variables de estado no cambian continuamente en el tiempo; para ser más precisos, el estado del sistema sólo cambia en instantes espaciados del tiempo y debido a la ocurrencia de algún evento. Por ejemplo, el inventario de productos en un almacén sólo cambia cuando llega un envío de productos (aumenta), o bien cuando se hace una entrega (disminuye), por lo que la simulación natural de los inventarios en un almacén corresponde a la simulación de evento discreto. La simulación de evento discreto ha encontrado aplicaciones importantes en la administración de operaciones de las empresas, ya que se utiliza para analizar políticas de inventarios, programación de tareas, desempeño de cadenas de suministro, políticas para programación de vehículos y, en general, para evaluar el desempeño de diferentes políticas para administrar sistemas de producción y distribución de manufacturas y servicios. Entre los lenguajes de simulación de evento discreto más conocidos se pueden mencionar: SIMAN, GPSS, SIMSCRIPT y SLAM. 15.2 Simulación estocástica de evento discreto 419 FIGURA 15.2 Animación de la simulación de una laminadora usando el software Simio Los lenguajes de simulación facilitaron la aplicación de la simulación como herramienta de diseño, pero todavía tienen el inconveniente que su uso requiere de cierta inversión de tiempo en aprendizaje. Por lo mismo, en la década de 1990 se aprovechan las ventajas de las computadoras personales y de los sistemas operativos basados en ventanas, para que los lenguajes de simulación se introduzcan en paquetes con ambientes de graficación e interactivos que faciliten el desarrollo de los modelos de simulación, y que permitan la animación de los mismos. En ciertas aplicaciones, como en los paquetes CATIA y UNIGRAPHICS para CAD/CAM, se introducen simuladores de ecuaciones diferenciales en módulos que permiten analizar las características de los diseños desarrollados en el ambiente de diseño CAD. En otras aplicaciones, como es el caso de los paquetes SIMIO, ARENA, PROMODEL, WITNESS o QUEST, entre otros, la aplicación permite el desarrollo y el análisis de los modelos de simulación de evento discreto, donde los antiguos comandos de los lenguajes de programación se presentan como módulos que se pueden integrar en un ambiente de programación gráfica, lo cual permite la integración de elementos para la animación de los modelos de simulación (véase figura 15.2). Actualmente se han desarrollado lenguajes y paquetes que integran diferentes modelos de simulación (continua y de evento discreto). En un futuro cercano, a medida que se facilite la comunicación de diferentes sistemas operativos, se espera que los simuladores se integren en aplicaciones especializadas por sector industrial, o por grupos de empresas, que permitan su uso de manera fácil y natural para solucionar problemas de diseño o de programación y control de actividades en tiempo real, por poner un ejemplo. 15.2 Simulación estocástica de evento discreto Modelos estocásticos. Una característica de muchas de las herramientas disponibles para desarrollar experimentos por simulación es que permiten 420 Capítulo 15 Simulación de sistemas modelar la incertidumbre que puede existir sobre algunas de las características del sistema en estudio, lo cual resulta muy conveniente para modelar sistemas, ya que la incertidumbre está presente en muchas situaciones de la vida real. Así, por ejemplo, si deseamos estudiar la atención de los clientes en una central telefónica, sería poco realista suponer que conocemos con precisión en qué instantes ocurrirán las llamadas de los clientes; por lo que sería conveniente que el modelo de simulación genere las ocurrencias siguiendo algún patrón que incorpore la incertidumbre sobre estas ocurrencias. Como se analiza en el Apéndice, la incertidumbre puede cuantificarse e incorporarse en un modelo utilizando el concepto de probabilidad. En particular, se pueden modelar las llamadas de los clientes a la central telefónica suponiendo que el tiempo entre llamadas sucesivas es una variable aleatoria que sigue alguna distribución de las que se mencionan en la tabla A.3 del Apéndice, por ejemplo, suponiendo que siguen una distribución exponencial con promedio de cinco minutos entre llamadas. Los elementos de un modelo de simulación que se generan por medio de alguna distribución de probabilidades son llamados componentes aleatorios del modelo; un modelo que tiene componentes aleatorios se denomina estocástico. Como es de esperarse, para simular modelos estocásticos se debe disponer de mecanismos que permitan generar (simular) por computadora muestras (observaciones) de las distribuciones de probabilidad que se incorporen en el modelo. El desarrollo y el análisis de experimentos por simulación basados en modelos estocásticos permiten analizar los sistemas de manera más congruente con la realidad, aunque exigen cierto cuidado, tanto para modelar los componentes aleatorios del modelo como para analizar la salida de los experimentos por simulación, ya que se debe tener en cuenta que debido a que el modelo tiene componentes aleatorios, el resultado de una corrida particular del modelo también es aleatorio. Por lo tanto, no se pueden hacer conclusiones en función de una única repetición (corrida) del experimento, más bien, se debe repetir el experimento para extraer conclusiones estadísticamente significativas. Es conveniente mencionar que cuando se analizan experimentos reales, tampoco se pueden tomar conclusiones en función de una sola observación del fenómeno, ya que por más control que se tenga sobre todas las variables del experimento, frecuentemente existe variabilidad en los resultados de una observación a otra, es por esto que la experimentación con modelos estocásticos también se parece a (“simula”) lo que ocurre con experimentos reales. Como se muestra en la figura 15.3, existen cuatro pasos fundamentales para estudiar un sistema utilizando simulación estocástica: Análisis de la entrada: consiste en determinar los componentes del modelo y los parámetros del mismo. En este paso se establece qué componentes son deterministas (no se tiene incertidumbre) y cuáles son aleato- 15.2 Simulación estocástica de evento discreto 421 Análisis de la entrada Desarrollo del modelo FIGURA 15.3 Pasos para estudiar un sistema por medio de simulación estocástica Experimentación con el modelo Análisis de la salida rios; además, en este último caso se deben especificar las distribuciones de probabilidad —y los parámetros a considerar—, lo cual se logra considerando datos provenientes del sistema real, de modelos de pronóstico e, incluso, de información subjetiva (ante la ausencia de datos). Desarrollo del modelo: consiste en implantar en la computadora el modelo básico de simulación que representa el sistema que se desea analizar. En este paso, luego de seleccionar las herramientas que se utilizan para desarrollar el modelo, se realizan pruebas de verificación y de consistencia, tanto para comprobar que no se hayan cometido errores de programación como para comprobar que el modelo de simulación desarrollado puede, efectivamente, reproducir las características del sistema real (para una explicación más detallada, véase Kelton et al., 2011). Experimentación con el modelo: consiste en diseñar y producir las corridas experimentales que permitirán extraer las conclusiones relacionadas con el estudio que se desea hacer del sistema real. Por ejemplo, cuando se estudia un nuevo diseño, por lo general se desea establecer qué valores de los parámetros de diseño son los más convenientes. Análisis de la salida: consiste en analizar la información obtenida de la experimentación con el modelo para establecer conclusiones estadísticamente válidas sobre el sistema en estudio. En este paso se debe tener cuidado de aplicar las técnicas estadísticas apropiadas. A continuación se presenta una pequeña introducción de las técnicas usadas para la generación de variables aleatorias, el análisis de entrada y el análisis de salida, que a menudo se utilizan en la simulación estocástica de evento discreto, es decir, en la experimentación con modelos de simulación de evento discreto que tienen componentes aleatorios de entrada. Generación de variables aleatorias. Para simular modelos estocásticos es necesario disponer de metodologías que permitan generar (por computadora) secuencias de valores provenientes de la distribución de probabilidades deseada. Por ejemplo, si modelamos el tiempo entre llegadas de los clientes a un banco como exponencial con promedio de 10 minutos, debe- 422 Capítulo 15 Simulación de sistemas mos desarrollar procedimientos que permitan que la computadora pueda generar valores (tiempos entre llegadas) X1, X2, …, Xn que puedan considerarse como una muestra de observaciones provenientes de una distribución exponencial con promedio de 10 minutos. Intuitivamente, podemos pensar que tenemos un buen procedimiento para generar una distribución exponencial si, después de generar un conjunto de observaciones, al agrupar los datos y construir un histograma de frecuencias (véase Apéndice) se obtiene una forma muy parecida a la función de densidad de la distribución exponencial. Por ejemplo, en la figura 15.4 se muestran el histograma de frecuencias (con 20 intervalos de clase), obtenido al generar una muestra de 100 000 observaciones utilizando el procedimiento implantado en el archivo Exponencial.xls (véase la página web de este libro), y la gráfica de la función de densidad de la distribución exponencial. Como se puede observar, ambas gráficas tienen una forma muy parecida, lo que sugiere que el generador implantado en dicho archivo tiene buenas propiedades. Se sugiere que el lector experimente generando sus propias muestras desde el archivo Exponencial.xls. El procedimiento que se utiliza en el archivo Exponencial.xls para generar muestras de variables exponenciales se obtuvo al aplicar una técnica muy conocida (método de la transformación inversa) que explicaremos más adelante. En este momento es conveniente mencionar que los procedimientos que se utilizan para generar cualquier variable aleatoria se construyen a partir de un generador de variables uniformes (véase Apéndice) entre 0 y 1, mejor conocidas como números aleatorios, por lo que, en primer lugar, comentaremos sobre la generación de números aleatorios. Casi cualquier calculadora de bolsillo tiene alguna tecla que, al presionarla, produce un número entre 0 y 1, al cual se le considera un número aleatorio. Desde una hoja de cálculo de Excel también se pueden producir números aleatorios, basta con introducir en una celda la expresión: =ALEATORIO() Histogramas de frecuencias Frecuencias Función de densidad Clases 10 FIGURA 15.4 Histograma de una muestra y función de densidad de una variable exponencial 20 30 40 x 50 60 15.2 Simulación estocástica de evento discreto 423 Public Function RanLL(ix As Long) As Double Dim k1 As Long ' Genera una variable uniforme RanLL entre 0 y 1 con semilla ix k1 = ix / 127773 ix = 16807# * (ix - k1 * 127773#) - k1 * 2836 If (ix < 0) Then ix = ix + 2147483647 End If RanLL = ix * 4.65661287E-10 End Function FIGURA 15.5 Código en VBA del generador de Lewis, Goodman y Miller Esto nos permite apreciar que tanto Excel como las calculadoras de bolsillo tienen implantados procedimientos para generar números aleatorios. En el archivo Uniforme.xls (véase la página web de este libro) también se ha implantado un generador de números aleatorios, cuyo código está escrito en Visual Basic for Applications (VBA), el cual está en la función RanLL, escrita en el módulo Generadores (se puede consultar el código de las macros de un libro de Excel activando la cinta Programador y presionando el botón Visual Basic de la cinta Programador). El generador implantado en el archivo Uniforme.xls se atribuye a Lewis, Goodman y Miller (1969), y lo utilizaremos para ilustrar cómo funciona un típico generador de números aleatorios. En la figura 15.5 se presenta el código (en VBA) de la función RanLL que, como puede observarse, tiene un argumento de entrada (la variable long ix). El argumento de entrada ix debe ser un entero entre 1 y 231 1 2147483647 y se conoce con el nombre de semilla. Si denotamos a la semilla por Xn, se puede verificar (véase ejercicio 15.1) que la función RanLL calcula el residuo (r) de la división Xn1/(231 1), donde Xn1 16807Xn, devuelve el valor RanLL r/(231 1) y hace ix igual a r. De esta forma, si se llama recursivamente a la función RanLL(ix), devolverá valores diferentes, ya que cada vez se cambia el valor de la semilla ix. En la figura 15.6 se muestra el histograma (con 20 intervalos) de una muestra de 10 000 números aleatorios (uniformes entre 0 y 1) generados desde el archivo Uniforme.xls. Como se puede observar, las frecuencias de cada intervalo son muy parecidas. Si el lector trata de generar sus propias muestras, encontrará que en la hoja del archivo Uniforme.xls debe ingresarse un número entero que se identifica con el nombre de Cadena. Este número se utiliza para seleccionar como semilla inicial alguna de las que se han cargado desde el módulo llamado Semillas, ya que en dicho módulo existen 1001 semillas espaciadas 100 000 lugares cada una. Es decir, si se genera una cadena de números aleatorios a partir de cualquiera de las semillas, el número 100 000 de la cadena será idéntico al primer número de la cadena de la siguiente semilla, lo que asegura que dos cadenas de números aleatorios generadas con diferentes semillas del módulo Semillas tienen di- 424 Capítulo 15 Simulación de sistemas Frecuencias 0.06 Histograma de frecuencias 0.05 0.04 0.03 0.02 FIGURA 15.6 Histograma de una muestra de 10 000 números aleatorios 0.01 0.95 0.9 0.85 0.8 0.75 0.7 0.65 0.6 0.55 0.5 0.45 0.4 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 0 Marcas de clase FIGURA 15.6 Histograma de una muestra de 10 000 números aleatorios ferentes números aleatorios, siempre y cuando las cadenas tengan menos de 100 000 elementos. Disponer de semillas espaciadas es útil para probar las propiedades (e. g., independencia) de los números aleatorios generados con diferentes semillas. Las muestras de variables aleatorias que no se distribuyen uniformemente entre 0 y 1 se pueden producir a partir de un generador de números aleatorios. Aunque existen muchas técnicas válidas para lograrlo (véase, por ejemplo, Banks et al., 2010), a continuación presentamos el método de la transformación inversa, que es el más popular por su facilidad de aplicación. El método de la transformación inversa se aplica a partir de la función de distribución acumulada (FDA) de la variable aleatoria X que se desea generar. A partir de la FDA, dada por F(x) P[X x], se puede obtener la función inversa definida por: F 1(u) min{x: F(x) u} Es decir, F 1(u) es el valor más pequeño (de x) que cumple F(x) u. Cabe notar que como F(x) es una probabilidad, su valor está entre 0 y 1, por lo que F 1(u) está bien definida cuando 0 u 1 (que es cierto si u es un número aleatorio). Por otro lado, cuando existe una solución única (para x) de la ecuación u F(x), entonces F 1(u) x, por lo que, para variables aleatorias continuas, a menudo se puede obtener la función inversa despejando X de la ecuación U F(X). No obstante, la definición de la función inversa como F 1(u) min{x: F(x) u} es necesaria para considerar el caso en que no existe (o existe más de una) x. tal que u F(x) (que ocurre cuando la variable aleatoria es discreta). Utilizando esta notación, el méto- 425 15.2 Simulación estocástica de evento discreto FDA F(x) 1 U 0.8 0.6 0.4 0.2 FIGURA 15.7 Método de la transformación inversa en una gráfica 0 10 X 20 30 40 50 60 do de la transformación inversa para generar una variable aleatoria X se define con el siguiente algoritmo. Algoritmo 15.1 1. Generar un número aleatorio U. 2. Devolver el valor de X F 1(U). Como se muestra en la figura 15.7, el método de la transformación inversa se puede describir gráficamente. Si se dispone de una gráfica de la FDA, dada por y F(x), el método consiste en ubicar el número aleatorio u en el eje vertical y devolver el valor correspondiente a x en el eje horizontal. En la figura 15.8 (más adelante) se muestra una representación gráfica del método de la transformación inversa cuando la variable aleatoria es discreta. Ejemplo 15.1 Generación de variables exponenciales Como se menciona en el Apéndice, una variable exponencial con promedio b 0 tiene la FDA definida por F(x) 1 ex/b para X 0. Como se trata de una función continua en todos sus puntos, basta con resolver la ecuación U 1 ex/b para obtener la función inversa dada por: X b log (1 U) donde log (X) denota al logaritmo natural del número X. En consecuencia, el siguiente algoritmo permite generar una variable exponencial con promedio b. Algoritmo 15.2 1. Generar un número aleatorio U. 2. Devolver el valor de X b log (1 U). 426 Capítulo 15 Simulación de sistemas Sin embargo, a partir de este algoritmo se puede encontrar un algoritmo mejor. Teniendo en cuenta que si U se distribuye uniformemente entre 0 y 1, entonces 1 U también se distribuye uniformemente entre 0 y 1 (véase ejercicio 15.3); por lo tanto, se puede remplazar 1 U por U en el algoritmo 15.2 para obtener el siguiente algoritmo, igualmente válido, para generar una variable exponencial con promedio b. Algoritmo 15.3 1. Generar un número aleatorio U. 2. Devolver el valor de X b log (1 U). Este ejemplo muestra que pueden existir diferentes maneras (igualmente válidas) de generar una variable aleatoria; sin embargo, es conveniente usar el método que realice menos operaciones, ya que en una simulación típica se debe llamar muchas veces al mismo generador. Usted puede comprobar que el algoritmo 15.3 es el que está implantado en el archivo Exponencial. xls (véase la función Expo del módulo Generadores), debido a que se utiliza una resta menos que en el algoritmo 15.2. Haciendo uso de este algoritmo se puede generar fácilmente una variable aleatoria exponencial con promedio b en una hoja de Excel. Por ejemplo, si el valor de b se encuentra en la celda B1, basta con escribir en otra celda la fórmula: = -B1*LOG(ALEATORIO()) Ejemplo 15.2 Generación de variables discretas en Excel La empresa de confecciones A&M desea lanzar una línea de trajes de baño para este verano. Con el objetivo de pronosticar su demanda, que se estima entre 10 000 y 30 000 unidades, A&M planteó cinco escenarios de demanda (véase tabla 15.1), y un panel de expertos en ventas se encargó de asignar las probabilidades que se muestran en la tabla 15.1. Tabla 15.1 Probabilidades de la demanda de A&M Demanda Probabilidad 10 000 0.3 15 000 0.2 20 000 0.3 25 000 0.15 30 000 0.05 427 15.2 Simulación estocástica de evento discreto Tabla 15.2 Datos de la demanda de A&M en una hoja de Excel Con la finalidad de simular los diferentes escenarios en una hoja Excel, se aplicó el método de la transformación inversa de la siguiente manera. En primer lugar, se introdujeron los datos de la demanda de A&M en una hoja Excel (véase archivo ConfeccionesA&M.xls en la página web de este libro) y se calcularon las probabilidades acumuladas, como se muestra en la tabla 15.2. Utilizando los conceptos del Apéndice (véase ejemplo A.3) se dedujo que la FDA de la demanda (X) de trajes de baño está dada por: F (x) = 0, x < 10 000 0.3, 10 000 ≤ x < 15 000 0.5, 15 000 ≤ x < 20 000 0.8, 20 000 ≤ x < 25 000 0.95, 25 000 ≤ x < 30 000 1, x ≥ 30 000 En la figura 15.8 se grafica la FDA de la demanda de A&M, donde se puede apreciar que, al aplicar el método de la transformación inversa, si el número aleatorio generado U está entre 0 y 0.3, se devuelve el valor Regresar X = 20 000 1 0.95 F(x) = P[X 0.05 x] 0.15 0.8 U 0.3 0.5 0.2 0.3 0.3 0 10 000 15 000 20 000 25 000 FIGURA 15.8 Transformación inversa para generar la demanda de A&M 30 000 428 Capítulo 15 Simulación de sistemas X 10 000; si, en cambio, 0.3 < U 0.5, se devuelve el valor X 15 000, y así sucesivamente, por lo que el valor de X a devolver, en función del valor de U, está dado por: 10 000, 0 < U ≤ 0.3 15 000, 0.3 < U ≤ 0.5 X = F (U ) = 20 000, 0.5 < U ≤ 0.8 −1 25 000, 0.8 < U ≤ 0.95 30 000, 0.95 < U ≤ 1 Observe que el intervalo de valores de U que corresponde a cada valor de X es consistente con su respectiva probabilidad. Así, por ejemplo, el intervalo de valores correspondiente a X 15 000 es 0.3 < U 0.5 y tiene probabilidad 0.5 0.3 0.2, como se deseaba. El método de la transformación inversa para generar variables discretas se puede implantar en una hoja de Excel haciendo uso de la función BUSCAR; para tal efecto, deben calcularse las probabilidades acumuladas en la hoja de Excel (como se muestra en la tabla 15.2). La función BUSCAR requiere de tres argumentos: el valor a buscar, un vector de valores donde buscar y un vector de valores a devolver. Excel empieza a buscar a partir del primer componente del vector de valores donde buscar, y si encuentra que el valor a buscar es mayor o igual que dicho componente y menor que el siguiente, devuelve el valor correspondiente del vector de valores a devolver; de otra forma, avanza su búsqueda al siguiente componente. Así, por ejemplo, para generar las demandas de A&M con los datos de una hoja de Excel, como en la tabla 15.2, suponiendo que en la celda C16 se genera un número aleatorio, basta con escribir la fórmula: =BUSCAR(C16,$C$3:$C$7,$A$4:$A$8) en la celda deseada, y así generar (aleatoriamente) un valor de la demanda de A&M (para una mejor comprensión, consulte la primera hoja del archivo ConfeccionesA&M.xls). Cabe resaltar que el primer elemento del vector de valores a buscar debe ser 0, y el primer elemento del vector de valores a devolver debe ser el primer valor de la variable aleatoria X a generar. Como podemos intuir, el procedimiento descrito para A&M se puede generalizar para cualquier variable aleatoria discreta. En particular, si una variable aleatoria discreta puede tomar valores x0 x1 x2 …, denotando p1 P[X xk] con k 0, 1, 2, …, un algoritmo válido para generar muestras de X sería: Algoritmo 15.4 1. Generar un número aleatorio U. 2. Hacer k 0 y p p0. 15.2 Simulación estocástica de evento discreto 429 Tabla 15.3 Algunas funciones de Excel para generar variables aleatorias Distribución de la variable aleatoria Función en Excel Beta DIST.BETA.INV Normal DIST.NORM.INV Gamma DIST.GAMMA.INV Lognormal DIST.LOG.INV 3. Si U p, devolver el valor de X k; de otra forma, ir al paso 4. 4. Hacer k k 1 y p p pk , volver al paso 3. Es conveniente recordar que el paso 1 del algoritmo 15.4 se puede implantar en Excel con la función ALEATORIO, y que los pasos 2 a 4 se implantan automáticamente con la función BUSCAR de Excel. Por último, debemos mencionar que Excel tiene funciones incorporadas que permiten generar variables aleatorias utilizando el método de la transformación inversa, algunas de las cuales se presentan en la tabla 15.3. Todas estas funciones tienen un argumento denominado Probabilidad, en el que, para generar la variable aleatoria deseada, debe ingresarse el valor de un número aleatorio, además de proporcionar los otros parámetros propios de la distribución correspondiente. Análisis de la salida de experimentos por simulación estocástica. Como ya se mencionó, los resultados de un experimento por simulación estocástica son aleatorios debido a que sus componentes también son aleatorios. Por lo tanto, no se pueden obtener conclusiones con una sola repetición (corrida) del experimento y los resultados de los experimentos deben analizarse aplicando técnicas estadísticas. A continuación se explica cómo se puede cuantificar y analizar correctamente la incertidumbre inherente a la experimentación con modelos de simulación estocástica. Para esto, primero se introduce un ejemplo que sirve para ilustrar las propiedades más importantes de la simulación estocástica. Ejemplo 15.3 Un modelo con solución analítica La empresa de confecciones A&M del ejemplo 15.2 debe decidir cuántos trajes de baño producir para venderlos en la temporada de verano, teniendo en cuenta que su costo de producción es de $30, su precio de venta (mayorista) es de $50 y que las prendas que no se vendan en la temporada de verano serán rematadas al precio de $10. Aunque el problema de encontrar un tamaño de pedido adecuado para A&M se puede atacar con métodos analíticos (como se verá en el ejemplo 15.4), se utilizará este problema 430 Capítulo 15 Simulación de sistemas TABLA 15.4 Costos, precios y tamaño del pedido de A&M para ilustrar las propiedades de la experimentación por simulación y para introducirnos a la simulación estocástica utilizando una hoja de cálculo. En la primera hoja (de nombre A&MHoja) del archivo ConfeccionesA&M. xls se simula el beneficio de A&M dependiendo de la cantidad de trajes de baño que decide producir. Los pasos seguidos para construir el modelo de simulación fueron los siguientes: 1. Se ingresaron en la hoja de Excel los datos de costo, precio, valor de rescate y tamaño del pedido en las celdas que se indican en la tabla 15.4. 2. Se construyó la primera repetición del experimento por simulación (en la fila 16 de la hoja) de la siguiente manera: Se generó un número aleatorio en la celda C16 introduciendo: =ALEATORIO() Se generó la demanda en la celda D16 utilizando la función BUSCAR (como se explica en el ejemplo 15.2), escribiendo: =BUSCAR(C16,$C$3:$C$7,$A$4:$A$8) Observando que el volumen de ventas será el valor más pequeño entre el tamaño del pedido y la demanda, se generó el ingreso de ventas en la celda E16: =$C$11*MIN(D16,$C$13) Se calculó el costo de las prendas ordenadas a partir del tamaño del pedido y del costo unitario en la celda F16: =$C$10*$C$13 Considerando que sólo se rematan prendas si el tamaño del pedido excede a la demanda, se calculó el valor de rescate de las prendas rematadas en la celda G16: =$C$12*MAX($C$13-D16,0) 15.2 Simulación estocástica de evento discreto 431 Por último, se calculó el beneficio (en la celda H16) en función de los cálculos anteriores: =E16+G16-F16 3. Para generar 1000 repeticiones del experimento por simulación, se copió la fila 16 y se pegó hasta la fila 1015. Cabe notar que para realizar correctamente esta operación, se fijaron las celdas necesarias (usando $$) en el paso 2. 4. Se calcularon las estadísticas del experimento por simulación considerando las 1000 observaciones simuladas del beneficio: Se calculó el promedio de los beneficios simulados en la celda G11: =PROMEDIO(H16:H1015) Se calculó la desviación estándar de los beneficios simulados en la celda G12: =DESVEST(H16:H1015) De acuerdo con la confianza (celda E13) y el número de repeticiones (celda G13), se calculó el ancho medio del intervalo de confianza (que explicaremos más adelante): =DISTR.NORM.ESTAND.INV(1-(1-E13)/2)*G12/RAIZ(G13) Por último, se calcularon el límite inferior (celda I11) y el límite superior (celda I12) del intervalo de confianza como el promedio menos el ancho medio y el promedio más el ancho medio, respectivamente. Para explicar la interpretación de las estadísticas de la simulación calculadas en el paso 4 del ejemplo anterior, es conveniente introducir cierta notación. En primer lugar, debemos explicar que en una simulación estocástica a menudo estamos interesados en estudiar una variable de desempeño que denotaremos por Y. Así, en el ejemplo 15.3 la variable de interés Y es el beneficio obtenido en la temporada. Cabe resaltar que Y es una variable aleatoria debido a que la simulación tiene componentes aleatorios, pero para evitar la incertidumbre en Y, la toma de decisiones sobre el mejor tamaño de pedido puede basarse en un parámetro de Y. Por ejemplo, el criterio más usado para tomar decisiones es la esperanza my E[Y ]; de esta manera, my es una medida de desempeño del sistema y puede ser utilizada para tomar decisiones sobre los mejores parámetros de diseño. Cuando repetimos el experimento n veces (n 1000 en el ejemplo), se obtiene una muestra aleatoria Y1, Y2,…, Yn de la variable aleatoria Y. Uno de los principios más importantes de la simulación estocástica es que, de 432 Capítulo 15 Simulación de sistemas acuerdo con la Ley de los grandes números (propiedad A.17), a medida que el tamaño de la muestra n se hace más grande, el promedio de la muestra – Y (n) tiende a la medida de desempeño my que nos interesa evaluar. Más aún, para saber si el tamaño de la muestra es lo suficientemente “grande”, se pueden calcular la desviación estándar S de la muestra y el intervalo de confianza (véase definición A.20) para la medida de desempeño my, para lo cual se fija un nivel de confianza (1 a) y se calcula el ancho medio: A= z1 − α/2 S n – El límite inferior del intervalo es Y (n) A y el límite superior es Y(n) A (como se calculó en el ejemplo 15.3). La interpretación de estos cálculos es que la medida de desempeño my se encuentra entre el límite in– – ferior, Y (n) A, y el límite superior, Y (n) A, con el nivel de confianza (1 a)(100)% (véase ejemplos A.6 y A.7 del Apéndice). Cabe notar que el valor de Z1a/2 se puede obtener con la función DIST.NORM.INV de Excel (a partir de la confianza), como se indicó en el paso 4 del ejemplo anterior. Observe que el ancho medio disminuye al incrementar el tamaño de la – muestra, lo que indica que nuestra estimación Y (n) de my se hace más precisa a medida que se incrementa el número de repeticiones del experimento por simulación. Ejemplo 15.4 Experimentación por simulación y solución analítica Con el objetivo de ilustrar la Ley de los grandes números en un experimento por simulación, a continuación se indica cómo calcular el beneficio esperado my de A&M en una hoja de cálculo sin la necesidad de recurrir a la simulación. Cabe resaltar que en este caso es posible encontrar el valor de la medida de desempeño analíticamente porque el modelo es relativamente sencillo, pero en muchos casos no es fácil (o simplemente no se puede) encontrar una solución analítica y, justamente en esos casos, la simulación se convierte en una poderosa herramienta de análisis. Teniendo en cuenta que A&M asume que sólo hay cinco posibles escenarios (proporcionados en la tabla 15.1), se puede calcular el beneficio para cada uno de estos escenarios, como se hizo en el ejemplo 15.3 para cada valor posible. Los cálculos se resumen en la tabla 15.5 (véase la hoja A&MHoja) y suponen los datos de la tabla 15.4, donde el tamaño del pedido es de 20 000 prendas. De acuerdo con los datos de la tabla 15.5, si el tamaño del pedido fuera de 20 000 prendas, el beneficio esperado de A&M sería de: my 0.3(0) 0.2(200 000) ... 0.05(400 000) 240 000 Con el objetivo de facilitar la experimentación por simulación, en la hoja A&MVBA del archivo ConfeccionesA&M.xls se automatizó la simu- 433 15.2 Simulación estocástica de evento discreto Tabla 15.5 Cálculo del beneficio para los diferentes escenarios de A&M Demanda Probabilidad Ingreso ventas Costo pedido Valor rescate Beneficio 10 000 0.3 500 000 600 000 100 000 0 15 000 0.2 750 000 600 000 500 000 200 000 20 000 0.3 1 000 000 600 000 0 400 000 25 000 0.15 1 000 000 600 000 0 400 000 30 000 0.05 1 000 000 600 000 0 400 000 lación de la primera hoja utilizando VBA (el lector puede consultar el código en los módulos correspondientes). Haciendo uso de este procedimiento, se corrieron algunos experimentos por simulación con diferentes tamaños de muestra, cuyos resultados se resumen en la tabla 15.6. Como puede observarse en la tabla, al incrementar el número de repeticiones (y, en consecuencia, el tamaño de la muestra), el promedio se acerca más al valor del parámetro my 240 000 (como lo establece la Ley de los grandes números). Por otro lado, como era de esperarse, el ancho medio del intervalo de confianza se reduce cada vez más; sin embargo, los intervalos de confianza cubren el valor del parámetro en los cuatro casos, confirmando la validez de estos intervalos de confianza. Se sugiere que usted corra sus propios experimentos con la hoja de cálculo para que verifique, por su propia cuenta, la validez de los resultados presentados en este ejemplo. Por último, es conveniente no perder de vista el objetivo de A&M, que es el de encontrar un tamaño de pedido apropiado. Usted puede verificar, utilizando la primera hoja de cálculo, que con cualquier tamaño de pedido entre 15 000 y 20 000 prendas, se obtiene el mismo beneficio esperado de 240 000. Esto indica que, bajo el criterio del valor esperado, cualquier pedido entre 15 000 y 20 000 prendas es igualmente bueno. Observe que en la primera hoja, donde se calcula la solución analítica, también se calcula la desviación estándar sY del beneficio. De ahí que se puede comprobar que para un pedido de 15 000 se obtiene sY 91 651.51, mientras que para un pedido de 20 000 se obtiene sy 174 355.96, lo que indica que con un peTabla 15.6 Resultados de simulaciones con diferentes repeticiones Repeticiones Promedio Ancho medio Límite inferior Límite superior 100 236 000 35 404.51 200 595.49 271 404.51 500 229 600 15 399.27 214 200.73 244 999.27 1 000 240 200 10 716.16 229 483.84 250 916.16 10 000 240 080 3 421.62 236 658.38 243 501.62 434 Capítulo 15 Simulación de sistemas dido de 20 000 se tiene un mayor riesgo. Es decir, con un pedido de 20 000 se pueden obtener beneficios más altos, pero también más bajos que con 15 000. Dado que, por lo general, es preferible tener menos riesgo, el pedido de 15 000 prendas es más conveniente para A&M. Esta última observación permite apreciar que si bien el criterio del valor esperado es el que más se utiliza para tomar decisiones con modelos estocásticos, pueden existir otras medidas de desempeño que merecen ser tomadas en cuenta, según sea el caso. Análisis de la entrada de experimentos por simulación estocástica. Un aspecto importante en la construcción de modelos de simulación estocástica es la selección de las distribuciones de probabilidad apropiadas para modelar los componentes aleatorios. Sin duda, la elección es más objetiva cuando se basa en datos disponibles del sistema real, aunque en muchas ocasiones no se dispone de los mismos. Cuando éste es el caso, lo más conveniente es seleccionar la distribución en función de las propiedades de la misma (véase el Apéndice) y la poca información disponible. Por ejemplo, si se pueden establecer únicamente los valores mínimo (a) y máximo (b) de la variable aleatoria, se puede asumir que los valores intermedios son igualmente verosímiles para proponer una distribución uniforme entre a y b. Por otro lado, si además se dispone del valor más verosímil (c), se puede proponer una distribución triangular con parámetros a, c y b. Cuando se dispone de un conjunto de observaciones X1, X2,…, Xn de la variable aleatoria que se quiere modelar, la selección de una distribución apropiada puede tener criterios más objetivos, partiendo de un modelo que define a una familia de distribuciones que depende de ciertos parámetros. En la tabla A.3 del Apéndice se presentan las principales familias de distribuciones que pueden considerarse. Como puede apreciarse en la tabla, cada familia tiene ciertos parámetros que permiten ajustar diferentes formas y escalas dentro de sí misma (véase figuras A.3 a A.13 del Apéndice). Por lo tanto, después de seleccionar una familia, el siguiente paso es seleccionar los valores particulares de los parámetros que mejor se ajusten al conjunto de observaciones disponibles. Para seleccionar una familia de distribuciones deben considerarse las características particulares de los datos. Por ejemplo, si los datos son discretos (edades en años, demandas en unidades, etc.), deben considerarse variables aleatorias discretas; en cambio, para modelar datos continuos (tiempos de proceso, pesos, distancias, etc.) deben considerarse distribuciones continuas. En general, cuando exista duda sobre qué familia de distribuciones es más apropiada, se puede optar por considerar familias flexibles, es decir, familias que permitan ajustar formas y escalas diferentes de acuerdo con el valor de sus parámetros. Por ejemplo, una distribución gamma es muy flexible para ajustar datos positivos y no acotados; por otro lado, una distribución beta puede ser muy útil para ajustar datos acotados entre un mínimo y un máximo. 435 15.2 Simulación estocástica de evento discreto Si se propone una determinada familia de distribuciones como modelo para explicar un conjunto de observaciones, deben ajustarse los valores de los parámetros que mejor se ajusten a los datos. Dicho proceso puede ser sencillo para algunas familias; por ejemplo, para las distribuciones Poisson y exponencial basta con calcular el promedio de la muestra, mientras que para la distribución normal sólo se necesita calcular, adicionalmente, la varianza muestral. Sin embargo, el ajuste de los parámetros de algunas distribuciones puede requerir el uso de métodos numéricos, para lo cual existe software comercial desarrollado a propósito. Algunos paquetes como SAS, ExperFit, BestFit o el Input Analyzer que viene con Arena, tienen procedimientos automáticos que ajustan los datos a diferentes familias y reportan la familia que se acopla mejor a los datos. Como se ilustra en el ejemplo 15.5, cuando los datos son continuos la comparación de un histograma de frecuencias de los datos con un histograma derivado de la distribución propuesta puede darnos una idea de qué tan bien se explican los datos con el modelo propuesto. Ejemplo 15.5 Modelado de las llegadas a un cajero automático LatinBanc desea modelar las llegadas de los clientes a uno de sus cajeros automáticos. Para ello, se tomó registro del tiempo (en minutos) entre las llegadas sucesivas de los clientes en un día de la semana. Los valores obtenidos de 100 observaciones se presentan en la tabla 15.7, y se considera que una forma apropiada para modelar procesos de llegadas consiste en suponer que los tiempos entre llegadas consecutivas de clientes obedecen a cierta distribución de probabilidades. Debido a que los tiempos entre llegadas son positivos y continuos, se decidió ajustar una distribución gamma que, como se menciona en el Apéndice, depende de dos parámetros, a y b. Para ajustar el valor de los parámetros a una muestra de observaciones, consideramos que la esperanza y la varianza de la distribución gamma son, respectivamente: mX ab, sX2 ab2 Tabla 15.7 Tiempos entre llegadas de clientes a un cajero automático 4.33 2.78 1.79 3.72 0.68 0.95 1.82 4.22 1.67 7.54 2.12 3.18 1.72 1.41 2.02 3.83 2.82 0.77 2.31 3.42 2.58 3.37 2.51 1.52 4.53 1.18 1.97 1.81 2.57 1.47 2.08 3.14 2.38 1.87 2.75 3.41 1.91 1.82 4.08 2.85 2.14 1.95 2.36 3.64 5.97 1.43 3.45 1.33 3.95 1.84 3.44 2.83 2.44 1.09 1.24 1.35 2.33 3.23 0.98 2.99 1.43 0.88 1.85 1.89 4.69 1.52 1.02 1.92 2.7 2.14 2.95 2.95 2.25 3.65 1.6 3.91 1.8 3.55 1.8 1.73 2.93 2.34 3.07 2.65 2.28 1.36 1.18 1.69 1.47 3.07 2.97 2.46 1.26 2.92 3.52 1.96 2.26 1.22 2.4 3.05 436 Capítulo 15 Simulación de sistemas Despejando a y b de las ecuaciones anteriores, se tiene que: a= m X2 sX2 , b = sX2 mX – Remplazando el promedio X (n) y la varianza S2 de la muestra por el promedio mX y la varianza sX2 de la distribución original, se obtiene: a= X 2 (n) S2 , b = X (n) S2 Dichas ecuaciones permiten ajustar los valores de a y b a los datos de una muestra. Es conveniente mencionar que el método que se ha aplicado para ajustar los parámetros de la distribución gamma se conoce con el nombre de método de momentos, y aunque no se reconoce como el mejor método para ajustar parámetros, es muy fácil de aplicar y tiene buenas propiedades (véase, por ejemplo, Wackerly, Mendenhall y Scheaffer, 2002). En la primera hoja del archivo LatinBanc.xls (véase la página web de este libro) se introdujeron los datos de la tabla 15.7 y se ajustaron los valores de a y b en función de las ecuaciones anteriores, encontrándose que los valores a 4.83 y b 0.51 son adecuados para ajustar los datos de LatinBanc. Por otro lado, en la misma hoja se implementó un procedimiento en VBA que construye la tabla de frecuencias para los datos y calcula las probabilidades teóricas de cada intervalo, suponiendo la distribución gamma con los respectivos parámetros (cabe recordar que las probabilidades acumuladas de la distribución gamma las puede calcular Excel con la función DISTR.GAMMA). Este procedimiento se acciona al presionar el botón de comando que tiene el mensaje “Generar histograma”. El gráfico que se genera muestra tanto el histograma de los datos como el de las probabilidades teóricas y el histograma combinado. Como se aprecia en la figura 15.9, los histogramas de frecuencias empíricas y teóricas presentan formas muy parecidas, mientras que el histograma combinado muestra que no sólo las formas, sino también las magnitudes de las frecuencias, son muy parecidas, confirmando que el modelo de una distribución gamma con parámetros a 4.83 y b 0.51 es apropiado para explicar los datos de la tabla 15.7. Cabe notar que se pueden aprovechar los procedimientos de la hoja AnEntrada para ajustar una distribución gamma a cualquier conjunto de datos, para lo cual basta con introducir el tamaño de la muestra en la celda B1 y los datos en las respectivas celdas de la segunda columna. 15.3 Simulación con Excel y VBA Los ejemplos desarrollados en las secciones anteriores permiten apreciar que se pueden generar modelos de simulación estocástica en hojas de cálculo, ya sea utilizando sólo la hoja de cálculo y las funciones de Excel o 437 15.3 Simulación con Excel y VBA Frecuencias empíricas 0.4 0.35 0.3 0.25 Frec. emp. 0.2 0.15 0.1 0.05 0 5.54875 9.83625 14.12375 18.41125 22 69875 26.98625 31.27375 35.56125 Marcas de clase Frecuencias teóricas 0.4 0.35 0.3 0.25 Frec. teor. 0.2 0.15 0.1 0.05 0 5.54875 9.83625 14.12375 18.41125 22 69875 26.98625 31.27375 35.56125 Marcas de clase Histograma combinado 0.4 0.35 0.3 0.25 Frec. emp. 0.2 Frec. teor. 0.15 0.1 0.05 0 5.54875 9.83625 14.12375 18.41125 22 69875 26.98625 Marcas de clase FIGURA 15.9 Histogramas empírico, teórico y combinado para LatinBanc 31.27375 35.56125 438 Capítulo 15 Simulación de sistemas macros escritos en VBA. Es conveniente mencionar que también existen productos comerciales llamados Complementos (Add In en inglés), que al incorporarse a Excel permiten al usuario utilizar generadores eficientes de variables aleatorias, así como automatizar fácilmente la experimentación por simulación. Esto permite, por ejemplo, realizar repeticiones automáticas a partir de la hoja de cálculo. Entre los complementos para simulación en Excel más conocidos están Risk y Crystal Ball. Desde la página web del autor de este capítulo (http://ciep.itam.mx/~davidm) también se pueden descargar generadores de las principales variables aleatorias usadas en simulación, que se pueden llamar utilizando VBA desde una hoja de cálculo. A continuación se presentan algunos otros ejemplos de experimentación por simulación usando una hoja de cálculo, en los cuales ya no es tan evidente que exista una solución analítica, por lo que se justifica el uso de la simulación. Por otra parte, para cada ejemplo se desarrollan, por lo menos, dos hojas; en una se desarrolla el modelo en Excel sin la ayuda de macros, y en la otra se utilizan macros para facilitar la experimentación. Cabe notar que la utilización de macros también permite construir modelos más complejos. No obstante, si el modelo a simular es muy complejo, se aconseja utilizar algún paquete comercial de simulación de evento discreto, como SIMIO, ARENA, PROMODEL, WITNESS, QUEST o algún otro disponible en el mercado. Ejemplo 15.6 Estrategia de propuesta para una licitación ConMex está tratando de decidir el monto de su propuesta para la licitación de un proyecto de construcción. Se estima que la preparación de la propuesta costará $3500, y que en caso de ganar la licitación la ejecución del proyecto costaría $100 000. El proyecto se asignará a la propuesta de menor costo y, en caso de empate, suponemos que ConMex se verá favorecida. ConMex estima que las propuestas de sus cuatro oponentes son independientes y que cada una se distribuye como 90 000 100 000X, donde X sigue una distribución beta con parámetros a 2 y b 3. En este ejemplo: 1. Se desarrolla una simulación en Excel, con 1000 repeticiones, para estimar el beneficio esperado (y su ancho medio de 95% de confianza) correspondiente al monto de la propuesta. 2. Se utiliza el modelo anterior para determinar el monto más apropiado para ConMex (bajo el criterio del valor esperado), suponiendo que el monto de la propuesta es un múltiplo de 10 000 entre 110 000 y 150 000. El modelo de simulación de este problema se presenta en el archivo ConMex.xls (véase la página web de este libro). En la primera hoja (llamada ConMexHoja) del archivo ConMex.xls, se implantó el modelo básico de 15.3 Simulación con Excel y VBA 439 Tabla 15.8 Costos y ofertas de ConMex simulación. Los pasos seguidos para construir el modelo de simulación fueron los siguientes: 1. Se ingresaron en la hoja de Excel los costos y las características de las ofertas en las celdas que se indican en la tabla 15.8, para una oferta de ConMex de 110 000. 2. Se construyó la primera repetición del experimento por simulación, en la fila 15 de la hoja, de la siguiente manera: Se generó la oferta del primer competidor en la celda B15, escribiendo: =$B$6+$B$7*DISTR.BETA.INV(ALEATORIO(),$B$8,$B$9) Se copió el contenido de la celda B15 en las celdas C15 a E15 para generar las ofertas de los otros competidores (cabe notar que se fijaron las celdas apropiadas usando $$ en el paso anterior). Se calculó el monto del ganador de la licitación en la celda F15, escribiendo: =MIN(B15,C15,D15,E15,$B$6) En la celda G15 se calculó una variable que toma el valor 1 si ConMex ganó la licitación, y 0 de otra manera, mediante la fórmula: =SI($B$4=F15,1,0) 440 Capítulo 15 Simulación de sistemas Observe que, en este caso, la función SI toma el valor 1 cuando la celda B4 (oferta de ConMex) es igual a F15 (oferta del ganador), y 0 de otra forma. Por último, se calculó el beneficio de ConMex en la celda H15: =G15*($B$4-$B$3)-$B$2 3. Para generar 1000 repeticiones del experimento por simulación, se copió la fila 15 y se pegó hasta la fila 1014. 4. Se calcularon las estadísticas del experimento por simulación, considerando las 1000 observaciones del beneficio, de la siguiente manera: Se calculó el promedio de los beneficios simulados en la celda E11: =PROMEDIO(H15:H1014) Se calculó la desviación estándar de los beneficios simulados en la celda E12: =DESVEST(H15:H1014) De acuerdo con la confianza (celda C13) y el número de repeticiones (celda E13), se calculó el ancho medio del intervalo de confianza: =DISTR.NORM.ESTAND.INV(1-(1-C13)/2)*E12/RAIZ(E13) Por último, se calcularon el límite inferior (celda G11) y el límite superior (celda G12) del intervalo de confianza. Para determinar el monto de la oferta de ConMex que tiene el mejor valor esperado, se experimentó con la versión que contiene macros en VBA de la segunda hoja (ConMexVBA). Se encontró que con 1000 repeticiones los anchos medios son muy amplios para tomar decisiones seguras, por lo que se consideraron tamaños de muestra de 10 000, obteniéndose los resultados que se presentan en la tabla 15.9. Como puede observarse en la tabla, la oferta que maximiza el valor esperado corresponde a un monto de 120 000. Cabe notar que en las celdas D7 y D8, de ambas hojas de cálculo se calculan la esperanza y la desviación estándar de la oferta de cada competidor (las fórmulas se deducen de la tabla A.3 y de la propiedad A.13 del Apéndice), y que estos valores dependen de a y b. Se sugiere que el lector investigue cómo afectan los valores a y b la esperanza de la oferta de cada competidor y, en consecuencia, la decisión óptima. 441 15.3 Simulación con Excel y VBA Tabla 15.9 Resultados de la experimentación con diferentes montos de oferta Oferta de ConMex Promedio 110 000 5 479 120 000 Ancho medio Límite inferior Límite superior 59.35 5 419.65 5 538.35 10 594 178.83 10 415.17 10 772.83 130 000 10 012 292.56 9 719.44 10 304.56 140 000 5 484 327.19 5 156.81 5 811.19 150 000 270.00 258.76 11.24 528.76 Ejemplo 15.7 Estudio de la congestión en un cajero automático Luego de analizar el patrón de llegadas a su cajero automático (ejemplo 15.5), LatinBanc desea investigar si la congestión en su cajero automático está de acuerdo con sus políticas de servicio al cliente o si es necesario instalar un segundo cajero en la estación que se está analizando. Las políticas de LatinBanc establecen que el tiempo promedio de espera de los clientes no debe exceder de 1 minuto y que menos de 5% de los clientes tengan que esperar más de 3 minutos. Como se estableció en el ejemplo 15.5, el tiempo entre llegadas sucesivas de clientes a la estación del cajero se puede modelar como gamma con parámetros a 4.83 y b 0.51. Por otro lado, un estudio sobre el tiempo de uso del cajero por parte de los clientes ha revelado que éste se puede modelar como uniforme entre 1 y 3 minutos. A partir de esta información, a continuación se explicará cómo construir un modelo de simulación en Excel para investigar si se están cumpliendo las políticas establecidas por LatinBanc. La llegada de los clientes y sus correspondientes tiempos de espera en el cajero de LatinBanc se puede simular en una hoja Excel siguiendo el diagrama que se presenta en la figura 15.10, donde se utiliza la siguiente notación: Generar tiempo de llegada A(i) = A(i 1) + Gamma(a, b) ¿A(i) > S(i 1)? NO I(i) = S(i 1) SI Calcular inicio de la atención I(i) = A(i) FIGURA 15.10 Diagrama de la simulación de esperas de clientes en LatinBanc Calcular inicio de la atención Calcular espera, salida y permanencia E(i) = I(i) A(i) S(i) = I(i) + Uniforme(a, b) P(i) = S(i) A(i) 442 Capítulo 15 Simulación de sistemas A(i) Tiempo al que ocurre la llegada del cliente i. S(i) Tiempo al que ocurre la salida del cliente i. I(i) Tiempo de inicio de la atención del cliente i. E(i) Longitud de la espera (antes de usar el cajero) del cliente i. P(i) Longitud de la permanencia (espera más uso de cajero) del cliente i. Como puede observarse en la figura 15.10, el tiempo en que ocurre la llegada de un cliente se puede simular generando una variable gamma(a, b) y sumándola al tiempo de llegada del cliente anterior, lo que es congruente con el modelo de distribución gamma para los tiempos entre llegadas sucesivas; cabe mencionar que el tiempo de llegada del primer cliente se puede suponer gamma(a, b). El inicio de la atención de un cliente será su mismo tiempo de llegada si ya ocurrió la salida del cliente anterior (A(i) > S(i 1)), de otra forma, ocurrirá cuando salga el cliente anterior. Por último, la salida del cliente se puede simular sumando su tiempo de atención (uniforme(a, b)) al inicio de su atención. Con estos datos es muy sencillo encontrar la longitud de la espera y de la permanencia del cliente. El primer modelo de simulación para LatinBanc se presenta en la segunda hoja (de nombre Latin1) del archivo LatinBanc.xls (véase la página web de este libro), y se realizaron los siguientes pasos para construir este modelo: 1. Se ingresaron en la hoja de Excel los parámetros de las distribuciones de los tiempos entre llegadas sucesivas y de atención, así como el tiempo de espera considerado crítico (de 3 minutos), en las celdas que se indican en la tabla 15.10. 2. Se simuló la atención del primer cliente (en la fi la 13) de la siguiente manera: Tabla 15.10 Datos sobre el cajero de LatinBanc 15.3 Simulación con Excel y VBA 443 Se generó la llegada del primer cliente (en la celda B13), escribiendo: =DISTR.GAMMA.INV(ALEATORIO(),$B$3,$B$4) Se indicó que el inicio de la atención del primer cliente ocurre inmediatamente (en la celda C13), escribiendo: =B13 Se calculó el tiempo de espera del primer cliente (en la celda D13): =C13-B13 Utilizando el algoritmo del ejercicio 15.2 para generar la distribución uniforme, se generó el tiempo de atención del primer cliente (en la celda E13): =$B$6+($B$7-$B$6)*ALEATORIO() Se calculó el tiempo de salida del primer cliente (en la celda F13): =C13+E13 Se calculó la permanencia del primer cliente (en la celda G13): =F13-B13 Por último, se estableció si el primer cliente espera más de 3 minutos, en cuyo caso la celda H13 toma el valor 1 (y 0 de otra forma): =SI(D13>$B$8,1,0) 3. Se simuló la atención del segundo cliente (en la fi la 14) de la siguiente manera: Se generó la llegada del cliente (en la celda B14), escribiendo: =B13+DISTR.GAMMA.INV(ALEATORIO(),$B$3,$B$4) De acuerdo con el tiempo de salida del primer cliente, se determinó el inicio de la atención del segundo cliente (en la celda C14), escribiendo: =SI(B14>F13,B14,F13) Se calculó el tiempo de espera del cliente (en la celda D14): =C14-B14 444 Capítulo 15 Simulación de sistemas Se generó la longitud de la atención del cliente (en la celda E14): =$B$6+($B$7-$B$6)*ALEATORIO() Se generó el tiempo de salida del cliente (en la celda F14): =C14+E14 Se calculó la permanencia del cliente (en la celda G14): =F14-B14 Por último, se utilizó la función SI de Excel para establecer si el cliente espera más de 3 minutos (en la celda H14): =SI(D14>$B$8,1,0) 4. Para simular la atención de 1000 clientes, se copió la fi la 14 y se pegó hasta la fila 1015. 5. Se calcularon las estadísticas del experimento por simulación considerando las observaciones de los 1000 clientes: Espera promedio (celda G3): =PROMEDIO(D13:D1012) Permanencia promedio (celda G4): =PROMEDIO(G13:G1012) Espera máxima (celda G5): =MAX(D13:D1012) Clientes atendidos (celda G6): =CONTAR(D13:D1012) Personas que esperaron (celda G7): =CONTAR.SI(D13:D1012,”>0”) Probabilidad de esperar (celda G8): =G7/G6 Personas con espera crítica (celda G9): =SUMA(H13:H1012) 445 15.3 Simulación con Excel y VBA Probabilidad de espera crítica (celda G10): =G9/G6 Utilización del cajero (celda G11): =SUMA(E13:E1012)/F1012 En la tabla 15.11 se presentan los resultados de una simulación de 1000 clientes del cajero automático de LatinBanc, donde se puede apreciar que, si bien la espera promedio fue menor de 1 minuto, el porcentaje de clientes que esperaron más de 3 minutos fue mayor de 5%. Sin embargo, los resultados que se muestran en la tabla 15.11 todavía presentan incertidumbre. El lector puede comprobar que si se vuelven a calcular los valores (accionando la tecla F9 desde la hoja de Excel), se obtendrán valores diferentes a los de la tabla 15.11, ya que, si bien casi siempre el porcentaje de clientes con espera crítica es superior a 5%, a veces se obtendrán esperas promedio mayores (y a veces menores) de 1 minuto. De hecho, debemos reconocer que los resultados de la tabla 15.11 corresponden a variables de desempeño, y la toma de decisiones debe basarse en medidas de desempeño (parámetros de las variables de desempeño). Para estimar los parámetros de este modelo existen dos alternativas: 1. Incrementar el número de clientes en el experimento (o el tiempo total de la simulación) para estimar las medidas de desempeño de largo plazo, en cuyo caso también se puede estimar la precisión de los estimadores (véase, por ejemplo, Banks et al., 2010). Este tipo de experimentación se conoce con el nombre de simulación de estado estable (traducción del término en inglés steady-state simulation). Tabla 15.11 Resultados de una simulación de 1000 clientes de LatinBanc Resultados de la simulación Espera promedio 0.85 Permanencia promedio 2.88 Espera máxima 6.22 Clientes atendidos 1000 Personas que esperaron 564 Probabilidad de esperar 0.56 Personas con espera crítica 71 Probabilidad de espera crítica 0.07 Utilización del cajero 0.80 446 Capítulo 15 Simulación de sistemas Tabla 15.12 Desempeño del cajero de LatinBanc en 8 horas de operación Resultados de la simulación Promedio Desviación estándar Ancho medio Espera promedio 0.95 0.35 0.022 Permanencia promedio 2.95 0.37 0.023 Espera máxima 5.60 1.80 0.111 Clientes atendidos 194.53 6.26 0.388 Personas que esperaron 114.74 15.63 0.969 Probabilidad de esperar 0.59 0.07 0.004 16.49 12.50 0.775 Probabilidad de espera crítica 0.08 0.06 0.004 Utilización del cajero 0.81 0.03 0.002 Personas con espera crítica 2. Fijar un periodo de operación (por ejemplo, 12 horas) y repetir el experimento, que consiste en registrar las variables de desempeño de los clientes que llegan sólo durante el periodo de operación. En este caso, la esperanza de cualquier variable de desempeño se estima a través del promedio de las repeticiones y la precisión se puede estimar calculando el ancho medio (como se hizo en los ejemplos anteriores). Esta experimentación se conoce con el nombre de simulación de estado transitorio (traducción del término en inglés transient simulation). Si bien la primera alternativa parece más factible de implementar sin la utilización de macros, presenta la desventaja que supone que el patrón de llegadas será siempre el mismo, a cualquier hora del día durante mucho tiempo. Por lo mismo, preferimos hacer una simulación de estado transitorio, implementando la segunda alternativa, con la ayuda de macros en VBA (en la hoja denominada Latin1VBA). Para repetir el experimento se requiere de información adicional (véase la hoja Latin1VBA) sobre el nivel de confianza para los anchos medios, el número de repeticiones y el lapso de tiempo a simular en cada repetición. En la tabla 15.12 se presentan los resultados de 1000 repeticiones de la simulación de la operación del cajero durante 8 horas (480 minutos). Como puede apreciarse, se puede concluir que la esperanza del tiempo de espera es (ligeramente) menor de 1 minuto, aunque la probabilidad de espera crítica sí es superior a 5% (entre 0.076 y 0.084 con 95% de confianza). Ejemplo 15.8 Estudio de congestión con dos cajeros automáticos Debido a que LatinBanc encontró que el desempeño de su localidad con un solo cajero automático no es completamente satisfactorio, sería convenien- 15.3 Simulación con Excel y VBA 447 te estimar el desempeño de su localidad teniendo dos cajeros en lugar de uno. Los modelos de simulación para este caso se presentan en las hojas Latin2 y Latin2VBA del mismo archivo del ejemplo anterior. Como en otros ejemplos, en la hoja Latin2 se construye un modelo sin la ayuda de macros, mientras que en la hoja Latin2VBA se automatiza la repetición del experimento utilizando macros en VBA. La construcción del modelo para dos cajeros es similar a la de un cajero, sólo que ahora se necesita conocer el valor de dos variables más por cada cliente: el tiempo en el que quedará (o quedó) libre el primer cajero y el tiempo en el que quedará (o quedó) libre el segundo cajero, estas variables se identifican en la hoja Latin2 con los nombres Cajero 1 Libre y Cajero 2 Libre, respectivamente. Los únicos cambios con respecto al modelo con un cajero son los que se requieren para determinar el tiempo de inicio de uso del cajero y los valores de las (dos) nuevas variables, como se indica a continuación. 1. Cuando se simula la atención del primer cliente (en la fi la 13): Se hace la variable Cajero 1 Libre (en la celda H13) igual al tiempo de salida del primer cliente: =F13 Se hace la variable Cajero 2 Libre (en la celda I13) igual a cero. 2. Cuando se simula la atención del segundo cliente (en la fi la 14): De acuerdo con el tiempo de llegada (celda B14), se calcula el inicio de la atención (celda C14) de la siguiente manera: =SI(B14>MIN(H13,I13),B14,MIN(H13,I13)) Se calcula el valor de la variable Cajero 1 Libre (en la celda H14): =SI(H13=MIN(H13,I13),F14,H13) Se calcula el valor de la variable Cajero 2 Libre (en la celda I14): =SI(I13=MIN(H13,I13),F14,I13) En la tabla 15.13 se presentan los resultados de una simulación de 1000 clientes con el sistema de dos cajeros, donde se aprecia que tanto la espera como la probabilidad de espera crítica fueron despreciables (el cliente con mayor espera sólo esperó 0.54 minutos). Por otro lado, cuando se hizo el análisis de simulación transitoria (con 8 horas de operación), bastó con 100 repeticiones para encontrar anchos medios aceptables; a la vez, éstos también confirman que la espera promedio y la probabilidad de espera crítica 448 Capítulo 15 Simulación de sistemas Tabla 15.13 Simulación de 1000 clientes de LatinBanc con dos cajeros Resultados de la simulación Espera promedio 0.00 Permanencia promedio 1.99 Espera máxima 0.54 Clientes atendidos 1000 Personas que esperaron 16 Probabilidad de esperar 0.02 Personas con espera crítica 0 Probabilidad de espera crítica 0.00 Utilización del cajero 0.41 son muy pequeñas (alrededor de 0.01 minutos y prácticamente cero, respectivamente), como se muestra en la tabla 15.14. Ejemplo 15.9 Evaluación de políticas de administración de inventarios La estación de servicio LubriLatin debe ordenar periódicamente (cada 30 días) las cantidades de lubricante SuperLubi que requiere para satisfacer las demandas de sus clientes. El lubricante se vende en presentaciones de 1 litro y, aunque LubriLatin siempre recibe de su proveedor la cantidad que ordenó, la entrega ocurre en un lapso de dos a cinco días de puesta la orden Tabla 15.14 Desempeño de dos cajeros de LatinBanc en 8 horas de operación Resultados de la simulación Promedio Desv. est. Ancho medio Espera promedio 0.01 0.01 0.001 Permanencia promedio 2.01 0.04 0.008 Espera máxima 0.60 0.38 0.075 195.53 6.01 1.177 Personas que esperaron 4.12 2.24 0.440 Probabilidad de esperar 0.02 0.01 0.002 Personas con espera crítica 0.00 0.00 0.000 Probabilidad de espera crítica 0.00 0.00 0.000 Utilización del cajero 0.81 0.03 0.006 Clientes atendidos 15.3 Simulación con Excel y VBA 449 (uniformemente distribuida), por lo que en ocasiones el inventario disponible al momento de hacer el pedido pudiera agotarse durante la demora. La política de pedidos de LubriLatin se basa en dos números (s, S), el primero de los cuales (s) es el máximo para ordenar, y el segundo (S) es el inventario base. La política de administración de inventarios consiste en que si el inventario disponible (I) al momento de ordenar es menor o igual que s, se ordenarán S I unidades, de otra forma no se ordena cantidad alguna. Como podemos imaginar, el beneficio de LubriLatin por la venta de SuperLubi depende de una buena elección de los parámetros (s, S), ya que, por ejemplo, si s o S son muy bajos, se pueden perder ventas por falta de inventario disponible, y si, por el contrario, son muy altos, se incurre en altos costos por inventarios innecesarios. El registro de la demanda de los clientes indica que la demanda en un día se ajusta a una distribución gamma con parámetros a 2 y b 20, por lo que (véase la propiedad A.16 del Apéndice) LubriLatin supone que su demanda en x días se distribuye como gamma con parámetros a 2x y b 20. Actualmente, LubriLatin considera que su nivel máximo de s 800 para ordenar es apropiado, pero desearía investigar qué nivel base (S) de inventario sería conveniente, sabiendo que éste debe ser un múltiplo de 200. Por lo mismo, desea construir un modelo de simulación que le permita estimar el beneficio esperado por la venta de SuperLubi y la tasa de surtido (porcentaje esperado de la demanda satisfecha), dados los valores de los parámetros (s, S). Para evaluar sus beneficios, LubriLatin debe considerar que cada unidad (de 1 litro) le cuesta $20 y se vende a $25, y que cada vez que se ordena al proveedor se incurre en un costo fijo de $1000. Para estimar sus costos por mantener en inventario, LubriLatin considera que si mantiene una unidad en inventario durante un año, incurriría en un costo equivalente a 20% del costo del producto, es decir, (0.20)(20) 4. Actualmente, LubriLatin tiene un inventario inicial de 100 unidades en inventario y debe decidir si hace un pedido. En la figura 15.11 se presenta un diagrama con los pasos seguidos para desarrollar el modelo de simulación para LubriLatin, que a continuación explicamos con detalle. Como se observa en la figura, la idea principal es la de simular primero la demora del pedido y la demanda durante la demora, lo que permitirá calcular el inventario antes y después de la recepción del pedido. Posteriormente se simula la demanda durante el resto del periodo, lo que permite calcular las variables de desempeño del modelo de simulación. El primer modelo de simulación para LubriLatin se presenta en la primera hoja (de nombre LubriHoja) del archivo LubriLatin (véase la página web de este libro) y se siguieron los siguientes pasos para construir este modelo: 1. Se ingresaron en la hoja de Excel los parámetros del modelo y los datos necesarios para calcular las variables de desempeño en las 450 Capítulo 15 Simulación de sistemas Generar demora y demanda durante la demora Calcular inventario al final de la demora Calcular inventario luego de recibir el pedido FIGURA 15.11 Diagrama de la simulación de inventarios de SuperLubi Calcular faltantes, inventarios, costos y beneficios Generar demanda durante el resto del periodo celdas que se indican en la tabla 15.15. Observe que el costo unitario de inventario por periodo se calculó como (0.20)(20)(30/360) 0.333. 2. Se simularon los inventarios para un periodo de atención (en la fila 18) de la siguiente manera. Se ingresó el inventario inicial (en la celda B18), escribiendo: =$E$3 Se simuló la demora del pedido (en la celda C18) como uniforme entre E11 y E12: =$E$11+($E$12-$E$11)*ALEATORIO() Considerando la demora (C18) y los parámetros de la distribución gamma, se simuló la demanda durante la demora (en la celda D18): =REDONDEAR(DISTR.GAMMA.INV(ALEATORIO(), C18*$E$14,$E$15),0) Tabla 15.15 Parámetros de la simulación de LubriLatin 15.3 Simulación con Excel y VBA 451 Observe que se usa la función REDONDEAR para evitar decimales en la demanda. Tomando en cuenta que el inventario se hace cero si la demanda es mayor que el inventario, se calculó el inventario al final de la demora (en la celda E18): =MAX(B18-D18,0) De acuerdo con el inventario al inicio del periodo y con la política determinada por los parámetros (s, S), se estableció la cantidad ordenada (en la celda F18): =SI(B18<=$E$5,$E$4-B18,0) Considerando el valor de la demora (celda C18), se estableció la longitud correspondiente al resto del periodo (en la celda G18): =$E$2-C18 Se simuló la demanda durante el resto del periodo (celda H18): =REDONDEAR(DISTR.GAMMA.INV(ALEATORIO(), G18*$E$14,$E$15),0) Se calculó el inventario al final del periodo (celda I18): =MAX(E18+F18-H18,0) Se calculó el inventario promedio durante el periodo (celda J18): =((B18+E18)*C18+(E18+F18+I18)*G18)/(2*$E$2) Cabe mencionar que es un promedio ponderado considerando la demora y el resto del periodo. Se calculó el costo por mantener los inventarios durante el periodo (celda K18): =$G$8*J18 Se calculó el costo total de las unidades vendidas (celda L18): =SI(F18>0,1,0)*$E$6+$E$7*(B18+F18-I18) Cabe resaltar que se está sumando el costo fijo por ordenar (E6), sólo si se hizo el pedido. Se calculó el ingreso por las ventas (celda M18): =$E$9*(B18+F18-I18) 452 Capítulo 15 Simulación de sistemas Se calculó el beneficio del periodo (celda N18): =M18-L18-K18 Se calculó la tasa de surtido (celda O18): =(B18+F18-I18)/(D18+H18) 3. Para simular 1000 repeticiones del experimento (con el mismo inventario inicial), se copió la fi la 18 y se pegó hasta la fila 1017. 4. Se calcularon los promedios de las variables de desempeño de interés, considerando las 1000 repeticiones: Inventario promedio (celda K3): =PROMEDIO(J18:J1017) Ingreso (celda K4): =PROMEDIO(M18:M1017) Beneficio (celda K5): =PROMEDIO(N18:N1017) Tasa de surtido (celda K6): =PROMEDIO(O18:O1017) 5. Se calcularon las desviaciones estándar de las variables de desempeño de interés (esto permite calcular anchos medios para las esperanzas), considerando las 1000 repeticiones: Inventario promedio (celda L3): = DESVEST (J18:J1017) Ingreso (celda L4): = DESVEST (M18:M1017) Beneficio (celda L5): = DESVEST (N18:N1017) Tasa de surtido (celda L6): = DESVEST (O18:O1017) En la tabla 15.16 se presentan las estadísticas de 1000 repeticiones de la simulación de inventarios de SuperLubi, considerando los datos de la tabla 453 Ejercicios propuestos Tabla 15.16 Resultados de 1000 repeticiones de una simulación de inventarios Promedio Desviación estándar Ancho medio 476.34 74.89 4.642 Ingreso de ventas 28 806.95 3 842.99 238.186 Beneficio 4 602.61 745.30 46.193 Tasa de surtido 96.25% 4.24% 0.26% Resultados de la simulación Inventario promedio 15.15, es decir, con un inventario base de 1600 unidades (que equivale a que se ordenaran 1500 unidades). Como se observa en la tabla, la tasa de surtido promedio es aceptable (alrededor de 96%), aunque el ancho medio es relativamente amplio como para permitir la toma de decisiones. Como en los ejemplos anteriores, en la segunda hoja del archivo LubriLatin.xls se utilizó VBA para automatizar los cálculos de esta primera hoja, lo que permite realizar más rápido los experimentos necesarios para encontrar el nivel del inventario base más recomendable para LubriLatin. Para obtener mejores anchos medios, se incrementó el número de repeticiones a 10 000. En la tabla 15.17 se presenta el resumen de las estadísticas sobre beneficios y tasas de surtido obtenidas bajo diferentes inventarios base (alrededor de 1400), donde se puede apreciar que un inventario base de 1400 unidades es el que proporciona los mejores beneficios para LubriLatin. EJERCICIOS PROPUESTOS 1. Al programar en computadora el generador de Lewis, Goodman y Miller (véase figura 15.5), se ha tenido especial cuidado en que no se produzca overflow, ya que si se calcula Xn1 16 807Xn por multiplicación directa, es muy fácil obtener un entero más grande que 231 1 Tabla 15.17 Inventarios de SuperLubi bajo diferentes tamaños de pedido Beneficio Tasa de surtido Inventario base Promedio Ancho medio Promedio Ancho medio 1000 3864.67 3.26 83.81% 0.18% 1200 4457.99 9.85 93.36% 0.12% 1400 4611.61 14.04 95.88% 0.09% 1600 4580.38 15.00 96.15% 0.08% 454 Capítulo 15 Simulación de sistemas (el máximo entero long permitido). Verifique que el algoritmo de la figura 12.5 calcula el residuo de dividir (16 807ix) entre (231 1), siguiendo los siguientes pasos: a) Utilice una hoja de cálculo (o calculadora) para comprobar que: i. 231 1 2 147 483 647 127 773 * 16 807 2836 ii. (2 147 483 647)1 4.65661287E-10 b) Partiendo de que c es el cociente (entero) obtenido al dividir a entre b (ambos números naturales), si y sólo si a bc d, donde 0 d b 1 es un número natural, pruebe que: i. La variable k1 del algoritmo de la figura 15.5 cumple: k1 127 773ix k2, donde 0 k2 127 772 ii. Si r 16 807 (ix 127 773k1) 2836k1, entonces r o r 231 1 es el residuo de dividir 16 807ix entre 231 1. c) Utilice los incisos anteriores para mostrar que el algoritmo de la figura 15.5 devuelve el residuo de dividir (16 807ix) entre (231 1), dividido entre (231 1). 2. A partir de la tabla A.3 del Apéndice, se puede encontrar que la FDA de una variable aleatoria X distribuida uniformemente entre a y b está dada por: 0, F (x) = x ≤ a, ( x − a ) , a < x < b, b−a 1, x ≥ 1. Suponga que X se distribuye uniformemente entre a y b: a) Pruebe que si 0 U 1, entonces la solución de U F(X) es X a (b a)U. Ejercicios propuestos 455 b) Utilice el resultado anterior para diseñar un algoritmo que genere muestras de X basado en transformación inversa (algoritmo 12.1). 3. De acuerdo con el ejercicio anterior, una variable aleatoria X se distribuye uniformemente entre 0 y 1, si y sólo si P[X x] x, 0 x 1. Suponga que U se distribuye uniformemente entre 0 y 1: a) Dado 0 y 1, calcule P[1 U y]. b) Pruebe que Y 1 U se distribuye uniformemente entre 0 y 1. 4. A partir de la tabla A.3 del Apéndice, se puede encontrar que la FDA de una variable aleatoria X que sigue una distribución triangular con parámetros a, c y b (mínimo, moda y máximo, respectivamente) está dada por: x ≤ a, 0, ( x − a ) , a < x ≤ c, (b − a) (c − a) 2 F (x) = ( b − x ) ,c < x < b, b − ( c ) (b − a) 2 − 1, x ≥ 1. Suponga que X sigue una distribución triangular con parámetros a, c y b: a) Resuelva U F(X) cuando a X c, e indique el correspondiente intervalo para U. b) Resuelva U F(X) cuando c X b, e indique el correspondiente rango para U. c) Utilice los resultados de los incisos anteriores para diseñar un algoritmo que genere muestras de X basado en transformación inversa (algoritmo 15.1). Observe que este algoritmo se puede implementar haciendo uso de la función SI de Excel. 5. La empresa CalzaLat lanzará su línea DeLuxe de zapatos para la temporada de invierno, aunque primero desea simular el beneficio (o pérdida) que puede obtener en dicha temporada. Con base en un panel de expertos, se han determinado seis escenarios de demanda (y sus correspondientes probabilidades) para la temporada de invierno, que se muestran en la siguiente tabla. Demanda (pares de zapatos) Probabilidad 5 000 0.2 10 000 0.1 15 000 0.25 20 000 0.2 25 000 0.2 30 000 0.05 456 Capítulo 15 Simulación de sistemas Si CalzaLat decide lanzar la línea DeLuxe, incurre en un costo fijo de $10 000, y de $150 por cada par de zapatos que decida producir. Por otro lado, CalzaLat recibirá $250 por cada par de zapatos vendido en la temporada de invierno, y los pares no vendidos se pueden rematar en $80 al final de la temporada. a) Utilice la función BUSCAR de Excel y aplique el método de transformación inversa para simular la demanda de la línea DeLuxe en la temporada de invierno. b) A partir del inciso anterior, desarrolle un modelo en Excel para simular el beneficio obtenido en la temporada de invierno para un tamaño de producción de 10 000 pares de zapatos. Estime el beneficio esperado, así como el ancho medio de la estimación, con base en 1000 repeticiones del experimento de simulación. 6. Utilice el modelo en Excel del ejercicio anterior para determinar el tamaño de producción de la línea DeLuxe que proporciona el mayor beneficio esperado. Se sugiere probar los valores posibles de la demanda (5000, 10 000, …, 30 000). 7. El gerente de una empresa manufacturera desea probar la aceptación de un nuevo producto en una campaña de tres meses y desea investigar su rentabilidad y el costo de la campaña. Para poder empezar a producir este producto es necesario invertir $40 000 por concepto de diseño y desarrollo del proceso. Actualmente no se tiene certeza sobre el costo variable por unidad producida, pero se pronostica uniformemente entre $10 y $20. Según un estudio de mercado, cada unidad del producto se venderá en $35 por unidad, pronosticándose que la demanda durante la campaña se distribuye triangularmente (véase ejercicio 15.4), con parámetros a 500, b 10 000, c 5000. Si una unidad producida no se puede vender durante la campaña, se puede rematar en $5 a una tienda de descuento. a) Construya un modelo en Excel para simular el beneficio obtenido en la campaña para un tamaño de producción de 2000 unidades. b) Utilice el modelo del inciso anterior para estimar el beneficio esperado y la probabilidad de tener pérdida (con sus correspondientes anchos medios) con base en 1000 repeticiones del experimento de simulación. 8. Utilice el modelo en Excel del ejercicio anterior para determinar el tamaño de producción que proporciona el mayor beneficio esperado, si éste debe ser un múltiplo de 500 unidades. 9. Un vendedor de periódicos ordena periódicamente El Informativo. Cada periódico le cuesta $5 y se vende en $10. Los periódicos que no se venden se pueden rematar para reciclado en $2. Se sabe que la demanda sigue una distribución triangular con parámetros a 35, c 50 y b 60. a) Construya un modelo en Excel para simular el beneficio del vendedor de periódicos si adquiere 40 unidades. b) Utilice el modelo del inciso anterior para estimar el beneficio esperado y la probabilidad de tener pérdida (con sus correspondientes anchos medios), con base en 1000 repeticiones del experimento de simulación. 457 Ejercicios propuestos c) Utilice el modelo del inciso anterior para determinar el número de periódicos que le conviene adquirir al vendedor de periódicos, si sabe que no puede adquirir más de 50 ni menos de 40. 10. Con el objetivo de estudiar la congestión en la caja de cobranza, la tienda de autoservicio Oso ha tomado el registro de 100 tiempos entre las llegadas de los clientes (en minutos), que se presentan en la siguiente tabla. 0.31 0.15 1.96 2.19 1.12 0.61 1.77 2.44 0.33 0.73 0.28 0.5 1.23 0.34 0.85 0.12 2.26 1 1.34 0.73 0.5 1.44 0.46 0.74 1.18 0.4 0.87 0.51 0.42 0.54 1.29 0.63 3.38 0.17 0.68 0.28 0.41 1.2 0.42 0.81 1.07 1.53 3.69 0.51 1.18 1.57 0.26 1.44 2.69 1.56 0.69 0.15 0.35 0.8 0.9 2.72 1.76 0.18 0.28 1.74 0.47 0.7 0.26 1.28 0.99 0.99 1.11 0.64 0.12 1.88 0.67 0.53 0.08 0.34 0.66 0.39 2.5 0.94 0.34 2 2.45 0.26 1.46 0.78 0.29 0.32 0.13 1.25 0.98 1.32 1.3 0.71 1.92 0.59 0.9 2.87 0.16 0.83 1.11 0.75 a) Introduzca los datos en la hoja de cálculo AnEntrada del archivo LatinBanc.xls y obtenga los valores de a y b que ajustan una distribución gamma a los datos de Oso. b) Considerando ocho intervalos de clase, construya un histograma de frecuencias para los datos de Oso (puede utilizar el procedimiento de la hoja AnEntrada). c) Construya el histograma de frecuencias teóricas para los datos de Oso, considerando los ocho intervalos del inciso anterior y la distribución gamma con los parámetros obtenidos en el inciso a (puede utilizar el procedimiento de la hoja AnEntrada). 11. La tienda de autoservicio del problema anterior tiene por política que los clientes no deben esperar en promedio más de 2 minutos y que el porcentaje de clientes que esperan más de 4 minutos no debe exceder de 5%. a) Considerando que el tiempo de atención del cajero se distribuye como uniforme entre 1 y 2 minutos, construya un modelo en Excel para simular la atención de clientes en el cajero de Oso (desarrolle un procedimiento similar al de la hoja de cálculo Latin1 del archivo LatinBlanc.xls). b) Utilice el modelo del inciso anterior para determinar si se está cumpliendo la política de Oso, con base en la simulación de la atención de 1000 clientes. 12. Desarrolle un procedimiento similar al de la hoja de cálculo Latin2 que aparece en el archivo LatinBlanc.xls para simular la atención de clientes en Oso (del ejercicio anterior) si se dispone de dos cajeros, y con base en la simulación de 100 clientes determine el tiempo promedio de espera y la probabilidad de esperar más de 4 minutos. 13. La constructora ConMex (véase ejemplo 12.7) presentará una propuesta para la licitación de un paso a desnivel. ConMex estima que la preparación de la propuesta le costará $7000, y que en caso de ganar la licitación la ejecución del proyecto costaría $1 500 000. Además, se estima que las propuestas de sus cuatro oponentes son independientes y que cada una se 458 Capítulo 15 Simulación de sistemas distribuye como 1 400 000 120 000X, donde X sigue una distribución beta con parámetros a 8 y b 4. a) Construya un modelo en Excel para simular el beneficio de ConMex, si su propuesta para construir el paso a desnivel es de $2 000 000. b) Estime el beneficio esperado, así como el ancho medio de la estimación, con base en 1000 repeticiones del experimento de simulación. 14. Utilice el modelo en Excel del ejercicio anterior para determinar el monto más apropiado para ConMex (bajo el criterio del valor esperado), si se ha decidido que el monto de la propuesta sea un múltiplo de 100 000 entre 1 600 000 y 2 500 000. 15. El restaurante Pollo Bueno debe ordenar periódicamente (cada 15 días) la cantidad de salsa especial que requiere para satisfacer la demanda de sus clientes. La salsa se compra en envases de 100 gramos y los tiempos de entrega ocurren en un lapso entre dos y cuatro días (uniformemente distribuidos) de puesta la orden, razón por la cual debe ordenarse apropiadamente para que el inventario disponible al momento de hacer el pedido no se agote durante la demora. Al momento de hacer un pedido el administrador revisa el inventario (I) de salsa disponible, y si encuentra que éste es menor o igual que s 6000 envases, entonces ordena S I envases, donde S es el nivel base de inventario. El administrador de Pollo Bueno desea investigar cuál es el valor apropiado del nivel base de inventario S con el objetivo de satisfacer la demanda de sus clientes, sin incurrir en costos innecesarios por ordenar y mantener inventarios. a) Construya un modelo en Excel para simular el beneficio de Pollo Bueno (y la tasa de surtido) por la venta de salsa durante un periodo de 15 días, desde la puesta de un pedido (a partir de cierto inventario inicial) con las siguientes consideraciones: i. La demanda diaria de salsa (en envases de 100 gramos) sigue una distribución gamma con parámetros a 200 y b 2 (y, en consecuencia, la demanda en n días sigue una distribución gamma con parámetros a 2n y b 2). ii. El ingreso por venta de salsa (V) es igual a $6 por cada envase de 100 gramos, mientras que el costo de ventas (CV) es de $4 por cada envase vendido. iii. Cuando se hace un pedido de salsa se incurre en un costo (CO) de $200 (independientemente del tamaño del pedido). iv. El costo por mantener inventarios durante el periodo de 15 días (CI), es de $0.05 multiplicado por el inventario promedio durante el periodo. v. El beneficio durante el periodo es igual a V CV CO CI. vi. La tasa de surtido es el porcentaje de la demanda que fue atendida durante el periodo de 15 días. b) Utilice el modelo del inciso anterior para estimar el beneficio esperado y la tasa de surtido esperada (así como sus correspondientes anchos medios), con base en 1000 repeti- 459 Ejercicios propuestos ciones del experimento de simulación, cuando el inventario al momento de la revisión es de 1500 envases. 16. Utilice el modelo en Excel del ejercicio anterior para determinar el inventario base (S) que proporciona el mayor beneficio esperado, si el tamaño del pedido debe ser un múltiplo de 200 envases. 17. La representación estudiantil universitaria realiza una conferencia anual para estudiantes de ingeniería industrial. Aunque se tiene incertidumbre sobre el número de personas que asistirán al evento, se sabe que el mínimo será de 200, el máximo de 1000 y el valor más verosímil de 500, por lo que se puede asumir que el pronóstico de asistentes sigue una distribución triangular con a 50, b 20 y c 500 (véase ejercicio 15.4). Cada asistente pagará $200 por concepto de registro y se estima un costo fijo de $20 000 por renta de local y equipo. Además se incurre en gastos variables que se distribuyen uniformemente, con un mínimo de $30 000 y máximo de $100 000. a) Construya un modelo en Excel para simular el beneficio que obtendrá la representación estudiantil por la realización de la conferencia. b) A partir de los datos calcule el beneficio mínimo y el máximo, y con base en 1000 repeticiones del experimento de simulación estime el beneficio esperado y la probabilidad de tener beneficio positivo (y los correspondientes anchos medios). 18. En la Ciudad de Los Monarcas se construirá una nueva planta termoeléctrica. En la siguiente tabla se presentan las actividades necesarias, así como el promedio y la desviación estándar del tiempo que han requerido las actividades en proyectos similares. Para que se pueda iniciar una actividad es necesario que se hayan terminado sus predecesoras. Tiempo de ejecución (días) Actividad Descripción Predecesores Promedio Desviación estándar D Diseño Ninguno 5 1 L Selección del lugar D 3 2 C Selección del contratista D 5 1 P Selección del personal D 2 1.5 E Construcción de edificio L 25 7 N Equipamiento de planta C, P 12 4 M Manual de operación C, P 3 0.5 T Entrenamiento M 5 2 R Sistema de seguridad E, N 7 1.5 O Licencia T, R 2 1 460 Capítulo 15 Simulación de sistemas Asumiendo que la duración de cada actividad sigue una distribución gamma, determine los parámetros a y b de cada actividad, de acuerdo con las fórmulas del ejemplo 15.6. a) Construya un modelo en Excel para simular la duración del proyecto. Asuma que cada actividad se inicia tan pronto como se terminen sus predecesoras, y que la duración de cada actividad sigue una distribución gamma con los parámetros encontrados en el inciso anterior. b) Con base en 1000 repeticiones del experimento de simulación, estime la duración esperada del proyecto, la probabilidad que el proyecto dure más de 50 días y la probabilidad que dure menos de 60 días. Calcule también los correspondientes anchos medios. 19. Un mecanismo requiere de dos baterías para funcionar, si una de esas baterías falla, el dispositivo no trabaja. Actualmente se tienen dos baterías nuevas en el mecanismo más tres baterías nuevas de repuesto. Cada batería, una vez colocada en el dispositivo, dura un tiempo distribuido log-normal con una media de 25 horas y una desviación estándar de siete horas. Se supone que cuando una batería se acaba inmediatamente se remplaza con otra batería de repuesto, si es que hay alguna disponible. Desarrolle un modelo de simulación en Excel y realice 300 repeticiones del experimento para realizar lo siguiente: a) Construya un modelo en Excel para simular el tiempo total que el mecanismo funciona con las baterías disponibles (utilice la función DISTR.LOG.NORM para simular la distribución log-normal). b) Con base en 1000 repeticiones del experimento de simulación, estime el tiempo esperado y la probabilidad de que el mecanismo funcione más de 50 horas (y los correspondientes anchos medios). Referencias Banks, J., Carson II, J. S., Nelson, B. L. y Nicol, D. M. (2010). Discrete-Event System Simulation, 5a. Ed. Prentice Hall, Nueva York. Kelton, W. D., Smith, J. S., Sturrock, D. T. y Muñoz, D. F. (2011). “Simio y simulación, modelado, análisis, aplicaciones”, en Simio L.L.C, edición ebook en español, disponible en http://www. simio.com/publications/. Lewis, P. A. W., Goodman, A. S. y Miller, J. S. (1969). “A pseudo-random number generation for the system 360”, en IBM Systems Journal 8:136-146. Logan, D. L. (2012). A First Course in the Finite Element Method, 5a. Ed. Cengage, Stamford. Schmidt, J. W. y Taylor, R. E. (1970). Simulation and Analysis of Industrial Systems, Irwin, Homewood. Wackerly, D. D., Mendenhall III, W. y Scheaffer, R. L. (2008). Mathematical Statistics with Applications, 7a. Ed. Cengage, Belmont. CAPÍTULO 16 Modelado y optimización AUTOR: Dr. Adrián Ramírez Nafarrate 16.1 16.2 16.3 16.4 ¿Qué es un modelo? Clasificación de los modelos Proceso de modelado Introducción a la programación lineal 16.5 Solución de un PPL con dos variables de decisión 16.6 Terminología de PL 16.7 Caracterización de los modelos de PL 16.8 Análisis de sensibilidad 16.9 Solución de un problema de PL con más de dos variables de decisión 16.1 ¿Qué es un modelo? Un modelo es una representación o una abstracción de un sistema real. Se utiliza para el diseño, la experimentación, la mejora de una parte del sistema o del sistema en su totalidad. Por ejemplo, el proceso de diseño de un automóvil o de una construcción, tal como un auditorio, incluye la elaboración de planos y de dibujos técnicos, además del desarrollo de prototipos f ísicos que ayudan a visualizar la forma en que las diversas partes del sistema interaccionan entre sí. De manera similar, el diseño de una sucursal bancaria, de un hospital o de una planta de ensamble de automóviles incluye el desarrollo de diagramas de flujo o de simulación por computadora para determinar el flujo de los clientes, de los pacientes o de las partes a través del sistema, y el número apropiado de recursos requeridos para asegurar el desempeño deseado del mismo. Por otro lado, un modelo de simulación también puede ser usado para representar distintas formas de abordar un avión, y seleccionar la opción que reduzca significativamente el tiempo en tierra de la aeronave. Además, existen modelos que pueden proporcionar una solución óptima a un problema. Por ejemplo, una empresa que produce dos artículos distintos puede utilizar un modelo para obtener la mezcla de producción que maximice su ganancia. 462 Capítulo 16 Modelado y optimización En ingeniería, los modelos son fundamentales. En varios capítulos de este libro se presentan modelos cuyas bases sirven para un propósito específico: por ejemplo, la administración de inventarios. En este capítulo se discuten algunas consideraciones importantes sobre el uso de modelos en ingeniería industrial, se presenta una clasificación de los modelos y se introduce un tipo de modelo llamado programación lineal. 16.2 Clasificación de los modelos En ingeniería industrial los modelos se pueden clasificar como gráficos o matemáticos. Los modelos gráficos incluyen diagramas de diseño, diagramas de flujo y diagramas de red. Este tipo de modelos utiliza iconos para representar distintos elementos o procesos de un sistema. Por ejemplo, la figura 16.1 muestra un diagrama de flujo. Los diagramas de flujo y los diagramas de red utilizan iconos para representar procesos o actividades en un sistema, y arcos o flechas para representar el flujo de entidades, como clientes, partes, automóviles, etc. Los modelos gráficos son útiles para observar la estructura de un sistema en su totalidad y para analizar el impacto de posibles modificaciones al sistema. Por otro lado, los modelos matemáticos representan la estructura y el comportamiento de un sistema por medio de variables, parámetros y expresiones matemáticas. Este tipo de modelos tiene una gran aplicación en la ingeniería industrial y su utilidad radica en su capacidad para analizar, experimentar y predecir el desempeño de un sistema. Existen distintos tipos de modelos matemáticos que se diferencian entre sí por su construcción, por las suposiciones de sus componentes y por Aceptación Emisión de cheque Aceptación Revisión CA Inicio Módulo de información Revisión CB Fin CA CB Módulo de devolución FIGURA 16.1 Ejemplo de un diagrama de flujo Rechazo Rechazo Rechazo Revisión rápida (CR) 16.2 Clasificación de los modelos 463 el tipo de respuesta que brindan. A continuación se presentan las categorías en las que se pueden clasificar los modelos matemáticos: Estático vs. dinámico. Los modelos estáticos no consideran la evolución del sistema a través del tiempo, sino que estudian su comportamiento en un instante determinado o asumen que el comportamiento es estable durante cierto periodo. Por otro lado, los modelos dinámicos incorporan la variable que representa al tiempo y pueden hacer predicciones del estado del sistema en función de los eventos que ocurren en un periodo y su impacto en el sistema. Los modelos dinámicos, a su vez, pueden ser continuos o de cambio discreto. El modelo es continuo si las variables que describen el estado del sistema evolucionan continuamente en el tiempo; en cambio, el modelo es de cambio discreto (o simplemente discreto) si estas variables sólo cambian debido al efecto de eventos que ocurren en instantes discretos (numerables) del tiempo. Determinístico vs. probabilístico. Los modelos determinísticos asumen que todos los parámetros y entradas del modelo se conocen con certeza, mientras que los modelos probabilísticos consideran que existe incertidumbre en algunas entradas del modelo (por ejemplo, la demanda de los artículos que produce una empresa), por lo que incluyen variables aleatorias que representan esta incertidumbre, por lo regular, por medio de distribuciones de probabilidad. Predictivo vs. prescriptivo. Los modelos predictivos utilizan expresiones matemáticas para predecir el comportamiento del sistema en función de algunas de sus variables o de algunos de sus parámetros, pero no encuentran soluciones a problemas específicos. En cambio, los modelos prescriptivos, también llamados de optimización, utilizan expresiones matemáticas o algoritmos numéricos para encontrar una solución óptima a un problema. La solución óptima es la mejor solución posible que se puede obtener para maximizar un beneficio o minimizar un costo. La figura 16.2 muestra un modelo de simulación desarrollado en un software llamado Simio. La simulación es un modelo con fundamentos matemáticos que permite visualizar gráficamente el desempeño de un sistema. Los modelos de simulación imitan los procesos y las interacciones de un sistema real. Estos modelos son utilizados para experimentar distintas configuraciones o cambios que se pueden hacer en la estructura del sistema real y observar el impacto en el mismo. La simulación es, entonces, un ejemplo de sistema dinámico, ya que permite observar la evolución del sistema a través del tiempo. Hay simulaciones determinísticas y probabilísticas, pero estas últimas son las de mayor aplicación en el análisis de los sistemas que incluyen líneas de espera, debido a que es poco realista asumir que las llegadas de las entidades a un sistema (por ejemplo, clientes a un banco) y los tiempos de servicio se pueden conocer con certeza. Actualmente, la simulación es considerada un 464 Capítulo 16 Modelado y optimización FIGURA 16.2 Ejemplo de un modelo de simulación modelo predictivo, ya que permite evaluar el comportamiento del sistema, pero no busca soluciones óptimas a los problemas. Aunque es conveniente mencionar que se están investigando métodos para desarrollar algoritmos de optimización basados en experimentos por simulación. La figura 16.3 muestra la estructura general de un modelo de programación lineal, cuyas bases se presentan más adelante en este capítulo. Este tipo de modelos se utiliza para la asignación óptima de recursos. Es decir, debido a que los recursos son limitados en cualquier sistema, los modelos de programación lineal ayudan a determinar la asignación adecuada de estos recursos para maximizar algún beneficio. La programación lineal es un modelo prescriptivo, pues se puede combinar con algoritmos de búsqueda para proporcionar soluciones óptimas a los problemas. Maximar Z c1x1 c2x2 … cnxn Sujeto a: a11x1 a12x2 … a1nxn b1 a21x1 a22x2 … a2nxn b2 : am1x1 am2x2 … amnxn bm x1 0, x2 0, …, xn 0 FIGURA 16.3 Estructura general de un modelo de programación lineal 16.3 Proceso de modelado 465 16.3 Proceso de modelado Como se describió, los modelos son utilizados ampliamente en el diseño y en la mejora de sistemas. Sin embargo, existen consideraciones que se deben tomar en cuenta para la utilización efectiva de los modelos. George Box, quien fue un afamado estadístico por sus contribuciones a la teoría de control de calidad, al análisis de series de tiempo y al diseño de experimentos, entre otras áreas, escribió la siguiente cita sobre el uso de modelos: “Esencialmente, todos los modelos están mal, pero unos son útiles.” Debido a que los modelos son una representación parcial de la realidad, éstos no capturan la totalidad de la complejidad de un sistema. Pero si un modelo está bien diseñado, puede ser de gran utilidad para mejorar significativamente el sistema. Las ventajas de la utilización de modelos incluyen: un menor costo de experimentación comparado con el de experimentar con el sistema real, capturar una amplia gama de detalle, entender y comunicar aspectos del sistema real, ayudar a detectar deficiencias del sistema y mejorar procesos. Por otro lado, las desventajas o las consideraciones que se deben tener en cuenta sobre el uso de modelos implican: un nivel avanzado de conocimientos en la técnica de modelado a usar, la recolección y el análisis de datos para las entradas del modelo y, con frecuencia, el análisis de sensibilidad y/o el análisis estadístico que requiere el análisis de resultados. El proceso de modelado para la solución de problemas y ejecuciones de proyectos es un trabajo colectivo en el que intervienen expertos en modelado y en el sistema real. La figura 16.4 muestra un esquema del proceso de modelado como base para diseñar y mejorar sistemas. En el primer paso se identifica el sistema, incluyendo sus componentes y sus interacciones, y se define el problema a resolver. Usualmente, este problema se plantea en forma de pregunta. El siguiente paso es ubicar y seleccionar la técnica de modelado apropiada. Como se mencionó en este capítulo, existen varias clasificaciones de los modelos. Por lo tanto, se debe elegir aquella técnica que ayude a responder la pregunta de interés dentro del presupuesto. Existe más de una técnica de modelado que sirve para responder una misma pregunta, pero la selección de la técnica apropiada debe considerar la sofisticación de los modelos, los datos requeridos y el costo. Posteriormente, se deben identificar y recolectar los datos necesarios para la construcción del modelo. Ésta es una parte fundamental, ya que el éxito del modelo se debe a la calidad de los datos de entrada. Si entra basura al modelo, el modelo saca basura en sus resultados, independientemente de su estructura; por lo tanto, se debe diseñar un proceso de recolección de datos que garantice la calidad de los mismos. Los factores que se deben considerar en el proceso de recolección de datos son: 466 Capítulo 16 Modelado y optimización Identificar el sistema y definir el problema Identificar la técnica de modelado apropiada y los datos requeridos Recolectar los datos de entrada del modelo Construir el modelo Validar el modelo Validar el modelo Experimentar con el modelo Realizar análisis de sensibilidad Obtener conclusiones y formular recomendaciones FIGURA 16.4 Proceso de modelado • • Disponibilidad: algunos datos pueden estar disponibles en bases de datos y, de ser así, se debe especificar su ubicación. Por otro lado, es posible que el modelo requiera de la recolección de datos que no se tienen registrados, en cuyo caso, se debe desarrollar el proceso de recolección y determinar el formato para registrar los datos, la cantidad de datos requerida y el tiempo de recolección. Formato: los datos deben transformarse al formato que requiera el modelo. Algunos modelos requieren distribuciones de probabilidad, mientras que otros sólo requieren especificar una constante. 16.3 Proceso de modelado • • • 467 Además, se debe tener en cuenta la consistencia en el manejo de las unidades de los datos. Es decir, se deben utilizar las mismas unidades de longitud, peso, tiempo y moneda a través del modelo. Calidad: es importante verificar que los datos representan de forma realista las características del sistema. Por lo tanto, se debe identificar si existen datos que se alejan del patrón existente en el sistema o que representan situaciones poco comunes, y decidir sobre su uso. Asimismo, es conveniente aplicar procedimientos (a menudo usando la computadora) para detectar posibles errores o para verificar la consistencia y precisión de la información disponible en las bases de datos. Vigencia: los datos deben coincidir con el comportamiento observado en el sistema que se va a modelar. Por lo tanto, los datos que se hayan recolectado durante un periodo muy alejado de la aplicación del modelo puede que no sean vigentes. Estacionalidad: una gran parte de los sistemas tiene un comportamiento diferente a través del tiempo, debido al impacto del clima, los horarios de trabajo, los días festivos, etc. Por lo tanto, se debe definir la forma en que se considerarán estos aspectos en el modelo. Una vez que se recolectan los datos requeridos, se procede a la construcción del modelo, de acuerdo al tipo de modelo seleccionado. Este proceso también es fundamental para garantizar el éxito del proyecto. Es posible que durante el desarrollo del modelo el modelador se dé cuenta que se requieren datos adicionales o, incluso, que el modelo no responde la pregunta de interés. Por esto, el proceso de modelado es iterativo y se puede regresar un paso para hacer ajustes al proyecto. El nivel de detalle del modelo tiene impacto tanto en los resultados como en el costo de experimentación y en la solución al modelo. Si éste incluye mucho detalle, puede producir resultados muy parecidos a los del sistema real; sin embargo, también requiere de una gran cantidad de datos que posiblemente no se tienen disponibles. Usualmente, es preferible un modelo relativamente simple pero útil para realizar el análisis deseado. Por otro lado, en su mayoría los modelos son hechos a la medida del problema. Entonces, el desarrollo exitoso del proyecto depende de la interacción y de la comunicación entre el modelador y los expertos en el sistema. El siguiente paso consiste en verificar y validar el modelo. El primero se refiere a asegurarse que el modelo está construido correctamente. Debido a que la mayoría de los modelos requieren del uso de códigos en computadora, el proceso de verificación incluye la detección de errores y de problemas en la lógica del código. En cambio, la validación del modelo consiste en asegurarse que el modelo representa adecuadamente el sistema real. Regularmente, este proceso se lleva a cabo probando el modelo con 468 Capítulo 16 Modelado y optimización distintas situaciones conocidas y observando si la salida del modelo es razonable. Una vez que se verifica y se valida el modelo, se procede a experimentar con él. El proceso de experimentación debe estar enfocado a responder la pregunta de interés. Se deben diseñar adecuadamente los escenarios que se evaluarán y recolectar los datos de salida del modelo para su análisis posterior. Finalmente, a partir del análisis de los resultados del modelo se emiten las conclusiones y las recomendaciones necesarias para resolver el problema y mejorar el sistema. Se debe considerar bajo qué condiciones las recomendaciones formuladas son válidas. Para ello se utiliza el análisis de sensibilidad, que consiste en observar los cambios en las soluciones obtenidas en el modelo, si cambia algo en la estructura del sistema. En ingeniería industrial el desarrollo y solución de modelos matemáticos forma parte del área de estudio de una disciplina llamada investigación de operaciones. El nombre proviene de los orígenes de la investigación de operaciones, durante la Segunda Guerra Mundial, cuando se desarrollaron modelos matemáticos para optimizar la logística militar. A partir de entonces el uso de modelos matemáticos se ha extendido a muchas otras áreas, incluyendo aplicaciones a las industrias de manufacturas y de servicios, así como a ramas de la ciencia como la Biología y la Economía, entre otras. 16.4 Introducción a la programación lineal La programación lineal (PL) es un tipo de modelo matemático que plantea el problema de encontrar los valores que puede tomar un conjunto de variables de decisión, para maximizar (o minimizar) una función lineal de las variables de decisión, satisfaciendo un conjunto de restricciones lineales. Para ser más precisos, si denotamos por x1, x2, …, xn a las variables de decisión, una función lineal de estas variables de decisión tiene la forma a1x1 + a2x2 + … + anxn donde a1, …, an son constantes (reales) conocidas. Similarmente, una restricción lineal es una expresión que al lado izquierdo tiene una función lineal, seguida de alguno de los tres símbolos: “ ”, “ ” o “”, y al lado derecho tiene un número (real) conocido. Por ejemplo, a11x1 + a12x2 + … + a1nxn b1 es la forma general de una restricción por desigualdad . En consecuencia, un problema de programación lineal (PPL) puede formularse (escribirse) siguiendo la estructura descrita en la figura 16.3. Una solución factible de un PPL es un conjunto de valores para las variables de decisión que satisface todas las restricciones simultáneamente, y 16.4 Introducción a la programación 469 una solución óptima es una solución factible que proporciona el mejor valor para la función objetivo. Una aplicación importante de la PL es la asignación óptima de recursos limitados. Como hemos mencionado, un modelo de PL se compone principalmente de dos partes: 1. Una función objetivo que expresa matemáticamente la ganancia que se quiere maximizar o el costo que se quiere minimizar. 2. Las restricciones que debe cumplir cualquier solución que se quiera implementar. Estas restricciones pueden incluir, por ejemplo, el uso de una cantidad limitada de recursos, la calidad de las soluciones o ciertas proporciones que se deben respetar. Ejemplo de un problema de PL Un ingeniero de producción desea conocer la cantidad óptima a producir, en cierto día, de cada uno de dos productos (Producto 1 y Producto 2), de tal forma que se maximice la ganancia por las ventas. El proceso de producción consta de tres procesos: Proceso A, Proceso B y Proceso C. El número de horas disponibles para cada proceso en el día depende del número de recursos disponibles en cada proceso, así como de las horas de descanso y de mantenimiento programadas. El ingeniero de producción ha encontrado que el número de horas disponibles en el día para cada proceso son: 18, 6 y 24, respectivamente. Los requerimientos de producción dependen del tipo de producto. La producción de una unidad de Producto 1 requiere 2 horas del Proceso A y 2 horas del Proceso C, mientras que la producción de una unidad de Producto 2 requiere 1 hora del Proceso B y 3 horas del Proceso C. Cada unidad de Producto 1 producida representa una ganancia de $3, mientras que cada unidad de Producto 2 producida representa una ganancia de $5. Formulación de un modelo de PL: Paso 1. Identificar y definir las variables de decisión. En este caso, la incógnita es el número de unidades de cada tipo de producto a producir en el día. Por lo tanto, la definición de las variables de decisión es: x1: Número de unidades de Producto 1 a producir en el día. x2: Número de unidades de Producto 2 a producir en el día. Paso 2. Definir la función objetivo y expresarla como una función lineal. El problema plantea que se desea encontrar la mezcla óptima de producción de productos tipo 1 y 2 tal que se maximice la ganancia. Dado que las variables de decisión indican la cantidad a producir de cada tipo de producto, la función que representa la ganancia total está dada por: 3x1 5x2. Para completar el planteamiento de la función objetivo se debe indicar el sentido de la optimización de la función: maximizar (Max) o minimizar (Min). Ade- 470 Capítulo 16 Modelado y optimización más, el valor de la función objetivo (en este caso, la ganancia total) puede considerarse como otra variable (por ejemplo, Z). Por lo tanto, la función objetivo del problema actual es: Max Z 3x1 5x2 Paso 3. Identificar las restricciones y expresarlas como restricciones lineales. El problema actual sugiere que las principales restricciones son las horas disponibles de cada proceso. Si no existieran esas restricciones, no existiría un límite para la ganancia (lo cual, probablemente no tiene sentido en la práctica). Sin embargo, los recursos limitados obligan a no exceder la disponibilidad de esos recursos. En este caso, existen tres procesos de producción y cada uno representa una restricción en el modelo de PL: • • • Restricción 1: Disponibilidad del Proceso A. Restricción 2: Disponibilidad del Proceso B. Restricción 3: Disponibilidad del Proceso C. Cada restricción se formula como una restricción lineal, y el lado izquierdo de cada restricción representa la cantidad de horas totales consumidas de cada proceso (dada la mezcla sugerida por las variables de decisión). Además, se debe especificar que esa cantidad de horas no debe exceder la capacidad disponible. Por lo tanto, las restricciones del modelo actual son: 2x1 x2 2x1 3x2 18 6 24 Observe que en las restricciones 1 y 2 sólo aparece una variable de decisión. Esto se debe a que la producción del Producto 1 no requiere del Proceso B y la producción del Producto 2 no requiere del Proceso A. Paso 4. Definir otras restricciones. Además de las restricciones de disponibilidad de recursos, puede existir otro tipo de restricciones; por ejemplo, alguna relacionada con proporciones a respetar en la mezcla de productos. También se deben especificar algunas restricciones que tienen que ver con los intervalos de las variables de decisión. Para el problema en cuestión, debido a que no se puede producir una cantidad negativa de productos, se determina que las variables de decisión pueden tomar únicamente valores no negativos, es decir: x1 0 y x2 0 la formulación completa del PPL queda entonces como: Max Z 3x1 5x2 471 16.5 Solución de un PPL con dos variables de decisión Sujeto a: 2x1 18 x2 6 2x1 3x2 24 x1 0 y x2 0 16.5 Solución de un PPL con dos variables de decisión Un método para resolver un problema de PL con dos variables de decisión es el método gráfico. Este método consiste en graficar en un plano cartesiano, tanto las restricciones como la función objetivo. Los ejes del plano cartesiano representan las variables de decisión. Dado el modelo del problema anterior, debido a las restricciones de no negatividad sobre las variables de decisión se utiliza sólo el primer cuadrante del plano cartesiano. La figura 16.5 muestra la representación de la primera restricción, donde los valores permitidos de x1 están a la izquierda de la recta x1 = 9 (identificada como R1). La segunda restricción establece que los valores permitidos de x2 son menores o iguales que 6, como se muestra en la figura 16.6. Finalmente, se agrega la tercera restricción a la gráfica, tal como se muestra en la figura 16.7. Una de las formas de graficar una restricción li- x2 R1 15 14 13 12 11 10 FIGURA 16.5 Representación de la primera restricción del modelo x1 10 11 12 13 14 15 472 Capítulo 16 Modelado y optimización x2 R1 15 14 13 12 11 10 R2 FIGURA 16.6 Representación de la primera y segunda restricciones del modelo x1 10 11 12 13 14 15 neal de dos variables (una línea recta) es uniendo dos puntos por donde pasa la línea recta. Por lo tanto, para graficar la tercera restricción se pueden obtener los valores de x1 y x2 que cruzan los ejes haciendo x2 0 y x1 0, respectivamente. Todos los puntos sobre la línea que representa una restricción corresponden a los valores de las variables de decisión que llevan la restricción a la igualdad con su lado derecho. Las flechas indican la región hacia donde están los valores permisibles de las variables de decisión para cada restricx2 R1 15 14 13 12 11 10 R2 R3 FIGURA 16.7 Representación de las tres restricciones del modelo e identificación de la región factible x1 10 11 12 13 14 15 473 16.5 Solución de un PPL con dos variables de decisión x2 15 14 13 12 11 10 x1 FIGURA 16.8 Región factible del problema y representación de la función objetivo 10 11 12 13 14 15 Z = 30 Z = 15 Z=0 ción. A la intersección de las regiones permisibles de todas las restricciones se le conoce como región factible, la cual aparece sombreada en la figura 16.7. La región factible contiene todos los valores de (x1, x2) que satisfacen todas las restricciones simultáneamente. Por lo tanto, la solución óptima al problema debe estar en esa área. La función objetivo también es una función lineal que puede graficarse en el plano cartesiano junto con las restricciones. Para graficar la función objetivo se puede dar un valor arbitrario a Z y obtener los valores donde la función atraviesa los ejes. La figura 16.8 muestra la región factible y la función objetivo para valores de Z iguales a 0, 15 y 30. Observe que las tres líneas que representan la función objetivo son paralelas entre sí y que entre más grande sea el valor de Z, más se aleja la línea del origen. Entonces, el valor óptimo para este problema corresponde a la línea de la función objetivo que produce la Z más grande mientras toca al menos un punto de la región factible. Usando distintos valores para la función objetivo y alejándose del origen, se puede observar que el último punto en que la función objetivo toca a la región factible es en, al menos, un vértice. Por lo tanto, la solución óptima a un problema de PL se puede encontrar en alguno de los vértices que forman la región factible. La región factible del problema actual contiene cinco vértices: A, B, C, D y E, como se muestra en la figura 16.9. 474 Capítulo 16 Modelado y optimización x2 15 14 13 12 11 10 B:(0, 6) C:(3, 6) D:(9, 2) FIGURA 16.9 Identificación de las soluciones factibles en los vértices E:(9, 0) A:(0, 0) x1 10 11 12 13 14 15 Para encontrar la solución óptima de un problema de PL, basta con evaluar la función objetivo en cada uno de los vértices de la región factible e identificar aquel que maximiza o minimiza el valor de Z. En el caso de un problema de PL de dos dimensiones, los vértices se encuentran resolviendo un sistema de dos ecuaciones (restricciones por igualdad que determinan el vértice) con dos incógnitas (variables de decisión). Por ejemplo, el vértice D resulta de la intersección de las restricciones 1 y 3. Por lo tanto, sus coordenadas son: 2x1 18 q x1 18/2 9 2x1 3x2 24 q x2 8 2x1/3 8 – 6 2 Tabla 16.1 Valor de la función objetivo en cada una de las soluciones factibles en los vértices Vértice x1 x2 Z = 3x1 + 5x2 A 0 0 0 B 0 6 30 C 3 6 39 D 9 2 37 E 9 0 27 475 16.6 Terminología de PL x2 15 14 13 12 11 10 x1 FIGURA 16.10 Identificación de la solución óptima de un PPL con dos variables de decisión. 10 11 12 13 14 15 Z = 39 La evaluación de las soluciones en los vértices se presenta en la tabla 16.1. La solución en el vértice C maximiza Z, por lo tanto, la solución óptima del problema es (3, 6). Esto significa que la mezcla diaria a producir para maximizar la ganancia es de 3 unidades de Producto 1 y 6 unidades de Producto 2, que generan una ganancia diaria de $39. La figura 16.10 muestra la función objetivo con Z 39, cuyo último vértice en tocar la región factible es (3, 6). 16.6 Terminología de PL Los siguientes términos se utilizan en un PPL: • • • • • Variables de decisión: son las incógnitas del modelo cuyos valores óptimos se desean encontrar para maximizar o minimizar una función objetivo. Función objetivo: es la función lineal de las variables de decisión que expresa el objetivo y que se debe maximizar o minimizar. Restricciones: son ecuaciones o desigualdades lineales de las variables de decisión que representan restricciones particulares del PPL. Las restricciones pueden ser de tipo , o . Solución: es una combinación de valores para el vector compuesto por las variables de decisión, por ejemplo (x1, x2, …, xn). Solución factible: es una solución (x1, x2, …, xn) que satisface todas las restricciones simultáneamente. 476 Capítulo 16 • • • Modelado y optimización Solución no factible: es una solución (x1, x2, …, xn) que no satisface al menos una restricción. Región factible: es el conjunto de todas las soluciones factibles. Solución óptima: es una solución factible que maximiza (minimiza) la función objetivo, es decir, ninguna otra solución factible proporciona un valor mayor (menor) en la función objetivo. 16.7 Caracterización de los modelos de PL Problema con soluciones factibles pero sin solución óptima: Max Z 3x1 5x2 Sujeto a: 18 0 2x1 x1 0 y x2 El modelo anterior cuenta con soluciones factibles, pero no con una solución óptima, ya que la variable x2 puede crecer ilimitadamente, incrementando sin límite el valor de la función objetivo, como se muestra en la figura 16.11. A este tipo de problemas de PL se les conoce como problemas no acotados (del inglés unbounded). Problema sin solución factible: Max Z 3x1 5x2 x2 R1 15 14 13 12 11 10 FIGURA 16.11 Ilustración de un problema con soluciones factibles, pero sin solución óptima x1 10 11 12 13 14 15 477 16.7 Caracterización de los modelos de PL x2 15 14 13 12 11 R2 10 R1 FIGURA 16.12 Ilustración de un problema sin soluciones factibles x1 10 11 12 13 14 15 Sujeto a: 2x1 3x2 x1 x2 x1 0 y x2 24 14 0 El modelo anterior, cuyas restricciones se ilustran en la figura 16.12, contiene dos restricciones que no se pueden satisfacer simultáneamente. Por lo tanto, el modelo tampoco tiene solución óptima. A este tipo de problemas de PL se les conoce como problemas no factibles (del inglés unfeasible). Problema con múltiples soluciones óptimas: Max Z 4x1 6x2 Sujeto a: 2x1 x2 2x1 3x2 x1 0 y x2 18 6 24 0 El modelo anterior es un ejemplo de un problema de PL con múltiples soluciones óptimas, ya que la función objetivo es paralela a la última restricción que toca al alejarse del origen, tal como se muestra en la figura 16.13. 478 Capítulo 16 Modelado y optimización x2 15 14 13 12 11 10 A:(3, 6) B:(9, 2) x1 FIGURA 16.13 Ilustración de un problema con múltiples soluciones óptimas 10 11 12 13 14 15 Z = 48 La tabla 16.2 muestra la evaluación de la función objetivo en las soluciones factibles correspondientes a los vértices A y B. Esta tabla muestra, entonces, que las dos soluciones factibles en dichos vértices son óptimas. Asimismo, cualquier solución sobre la línea que conecta los dos vértices también es óptima. Cualquier otra solución óptima, C, se puede obtener con una combinación convexa de las dos soluciones que corresponden a los vértices, es decir: x1C ax1A (1 a)x1B x2C ax2A (1 a)x2B, F donde: 0 1 Por ejemplo, si a 0.5, se obtiene la solución óptima C (6, 4), que también produce Z 48. Tabla 16.2 Evaluación de la función objetivo en las soluciones factibles que corresponden a dos vértices que son óptimos Vértice x1 x2 Z = 4x1 + 6x2 A 3 6 48 B 9 2 48 479 16.7 Caracterización de los modelos de PL Problema cuya región factible es un segmento de línea: Max Z 3x1 5x2 Sujeto a: 2x1 18 x2 6 2x1 3x2 24 x1 0 y x2 0 La región factible del problema anterior es el tramo de línea que conecta los vértices A y B, según la figura 16.14. Por lo tanto, las únicas dos soluciones factibles que corresponden a un vértice son (3, 6) y (9, 2), que producen valores de Z de 39 y 37, respectivamente. Entonces, la solución dada por el vértice A es la solución óptima. Problema de minimización: Min Z 3x1 5x2 Sujeto a: 2x1 2x1 x1 x2 3x2 0 y x2 18 6 24 0 x2 R1 15 14 13 12 11 10 R3 A:(3, 6) R2 B:(9, 2) FIGURA 16.14 Ilustración de un problema donde la región factible está sobre una línea x1 10 11 12 13 14 15 480 Capítulo 16 Modelado y optimización Aceptación Emisión de cheque Aceptación Revisión CA Inicio Módulo de información Rechazo Revisión CB Fin CA CB Módulo de devolución Rechazo Rechazo Revisión rápida (CR) FIGURA 16.15 Ilustración de un problema de minimización Regularmente, los problemas de minimización incluyen, al menos, una restricción de tipo o , tal que la región factible no incluya al origen. De acuerdo a la figura 16.15, la región factible de este problema contiene tres soluciones factibles que corresponden a algún vértice. La evaluación de las soluciones factibles en los vértices se muestra en la tabla 16.3. Ya que la función objetivo es de tipo minimizar, la solución óptima corresponde a la solución del vértice C. 16.8 Análisis de sensibilidad El análisis de sensibilidad permite determinar el intervalo en el que pueden variar alguno