Uploaded by Jade Andrea Quispe Cruz

Introduccion a la ingenieria Romero 2da Edicion

advertisement
Segunda edición
Introducción a la
INGENIERÍA
Dr. Sergio Romero Hernández
Dr. Omar Romero Hernández
Dr. Daniel Muñoz Negrón
Introducción a la
ingeniería
Segunda edición
Introducción a la
ingeniería
Segunda edición
Dr. Sergio Romero Hernández
Dr. Omar Romero Hernández
Dr. David Muñoz Negrón
®
Australia • Brasil • Corea • España • Estados Unidos • Japón • México • Reino Unido • Singapur
®
Introducción a la ingeniería.
Segunda edición
Dr. Sergio Romero Hernández,
Dr. Omar Romero Hernández,
Dr. David Muñoz Negrón
Presidente de Cengage Learning
Latinoamérica:
Fernando Valenzuela Migoya
Director Editorial, de Producción
y de Plataformas Digitales para
Latinoamérica:
Ricardo H. Rodríguez
Editora de Adquisiciones para
Latinoamérica:
Claudia C. Garay Castro
Gerente de Manufactura para
Latinoamérica:
Raúl D. Zendejas Espejel
Gerente Editorial de Contenidos en
Español:
Pilar Hernández Santamarina
Gerente de Proyectos Especiales:
Luciana Rabuffetti
Coordinador de Manufactura:
Rafael Pérez González
Editor:
Sergio R. Cervantes González
Diseño de portada:
Anneli Daniela Torres Arroyo
Imagen de portada:
Engineering Design Science as a Blueprint
Concept © kentoh/Shutterstock
Composición tipográfica:
Rogelio Raymundo Reyna Reynoso
Impreso en México
1 2 3 4 5 6 7 15 14 13 12
© D.R. 2015 por Cengage Learning Editores, S.A. de
C.V., una Compañía de Cengage Learning, Inc.
Corporativo Santa Fe
Av. Santa Fe núm. 505, piso 12
Col. Cruz Manca, Santa Fe
C.P. 05349, México, D.F.
Cengage Learning® es una marca registrada
usada bajo permiso.
DERECHOS RESERVADOS. Ninguna parte de
este trabajo amparado por la Ley Federal del
Derecho de Autor, podrá ser reproducida,
transmitida, almacenada o utilizada en
cualquier forma o por cualquier medio, ya sea
gráfico, electrónico o mecánico, incluyendo,
pero sin limitarse a lo siguiente: fotocopiado,
reproducción, escaneo, digitalización,
grabación en audio, distribución en Internet,
distribución en redes de información o
almacenamiento y recopilación en sistemas
de información a excepción de lo permitido
en el Capítulo III, Artículo 27 de la Ley Federal
del Derecho de Autor, sin el consentimiento
por escrito de la Editorial.
Datos para catalogación bibliográfica:
Dr. Sergio Romero Hernández,
Dr. Omar Romero Hernández,
Dr. David Muñoz Negrón
Introducción a la ingeniería. Segunda edición
ISBN: 978-607-519-543-8
Visite nuestro sitio en:
http://latinoamerica.cengage.com
DEDICATORIA
A María Cristina Hernández Montoya
Contenido
Prefacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
xiii
CAPÍTULO 1 Introducción a la ingeniería . . . . . . . . . . . .
1
1.1
1.2
1.3
1.4
1.5
¿Qué es la ingeniería? . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Historia de la ingeniería . . . . . . . . . . . . . . . . . . . . . . . . . . .
Perfil del ingeniero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ética profesional y valores . . . . . . . . . . . . . . . . . . . . . . . . .
Propiedad intelectual . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
4
13
14
18
CAPÍTULO 2 El mundo de la ingeniería . . . . . . . . . . . . .
21
2.1
2.2
2.3
2.4
2.5
2.6
2.7
Ingenieros más notables. . . . . . . . . . . . . . . . . . . . . . . . . . .
Ramas de la ingeniería . . . . . . . . . . . . . . . . . . . . . . . . . . . .
El estudio y campo laboral de la ingeniería . . . . . . . . . . . .
Asociaciones de ingeniería . . . . . . . . . . . . . . . . . . . . . . . . .
Últimos desarrollos ingenieriles en diferentes sectores . . .
Retos y nuevas fronteras . . . . . . . . . . . . . . . . . . . . . . . . . .
Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
21
25
34
36
38
44
46
CAPÍTULO 3 Estrategia, innovación y competitividad . .
51
3.1
3.2
3.3
3.4
3.5
3.6
3.7
3.8
3.9
3.10
51
53
54
55
58
59
62
64
65
67
Nuevo entorno competitivo . . . . . . . . . . . . . . . . . . . . . . . .
Estrategia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Estrategia versus efectividad operativa . . . . . . . . . . . . . . .
Posiciones de ventaja competitiva . . . . . . . . . . . . . . . . . .
Fuentes de ventaja competitiva . . . . . . . . . . . . . . . . . . . . .
Cadena de valor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Innovación de procesos . . . . . . . . . . . . . . . . . . . . . . . . . . .
Premio de la innovación . . . . . . . . . . . . . . . . . . . . . . . . . . .
Disciplina de la innovación . . . . . . . . . . . . . . . . . . . . . . . . .
Oportunidades y fuentes de la innovación . . . . . . . . . . . . .
viii
Contenido
3.11 Metodología de innovación . . . . . . . . . . . . . . . . . . . . . . . .
3.12 Mapa de la estrategia . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.13 Comentarios finales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
68
71
73
CAPÍTULO 4 Algorítmica y programación . . . . . . . . . . .
77
4.1
4.2
4.3
4.4
Solución automatizada de problemas . . . . . . . . . . . . . . . .
Algoritmos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Programación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ingeniería de software . . . . . . . . . . . . . . . . . . . . . . . . . . . .
77
81
93
100
CAPÍTULO 5 Herramientas computacionales
para ingeniería . . . . . . . . . . . . . . . . . . . . . .
105
5.1
5.2
5.3
5.4
Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Programas computacionales para ingeniería . . . . . . . . . .
MATLAB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Comentarios finales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
105
106
109
127
CAPÍTULO 6 Energía, medio ambiente y
desarrollo sustentable . . . . . . . . . . . . . . .
131
6.1
6.2
6.3
6.4
6.5
6.6
6.7
6.8
6.9
6.10
6.11
Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Principales problemas ambientales y energéticos . . . . . . .
Breve recuento histórico (The natural step) . . . . . . . . . . . .
Herramientas de manejo ambiental . . . . . . . . . . . . . . . . . .
Flujos de materia y energía. . . . . . . . . . . . . . . . . . . . . . . . .
Análisis de ciclo de vida . . . . . . . . . . . . . . . . . . . . . . . . . . .
Gestión de riesgos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Evaluación de impacto ambiental . . . . . . . . . . . . . . . . . . .
Energías renovables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ecología industrial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Sistemas empresariales de manejo ambiental . . . . . . . . . .
131
132
135
138
139
144
147
150
153
155
157
CAPÍTULO 7 Materiales en ingeniería y procesos
de manufactura. . . . . . . . . . . . . . . . . . . . . .
161
7.1
7.2
7.3
7.4
7.5
Introducción e importancia de los materiales
en ingeniería . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Estructura de los materiales . . . . . . . . . . . . . . . . . . . . . . . .
Principales aleaciones ferrosas y no ferrosas . . . . . . . . . .
Polímeros y cerámicos . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Propiedades mecánicas de los materiales . . . . . . . . . . . . .
161
163
166
167
169
Contenido
7.6
7.7
7.8
7.9
7.10
7.11
ix
Clasificación general de los procesos de conformado . . .
Procesos de fundición y vaciado . . . . . . . . . . . . . . . . . . . .
Conformado de metales . . . . . . . . . . . . . . . . . . . . . . . . . . .
Conformado y aplicaciones de polímeros . . . . . . . . . . . . .
Manufactura integrada por computadora . . . . . . . . . . . . .
Construcción rápida de prototipos. . . . . . . . . . . . . . . . . . .
170
171
172
173
176
180
CAPÍTULO 8 Ergonomía . . . . . . . . . . . . . . . . . . . . . . . . . .
183
8.1
8.2
8.3
8.4
Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Historia de la ergonomía. . . . . . . . . . . . . . . . . . . . . . . . . . .
Áreas de la ergonomía . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ergonomía de diseño centrado en el usuario . . . . . . . . . . .
183
185
189
222
CAPÍTULO 9 Diseño y desarrollo de productos:
un enfoque CAD . . . . . . . . . . . . . . . . . . . . .
225
9.1
9.2
9.3
9.4
Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Procesos de desarrollo y organizaciones . . . . . . . . . . . . . .
Planeación de productos . . . . . . . . . . . . . . . . . . . . . . . . . .
Identificación de necesidades y generación
de especificaciones ingenieriles . . . . . . . . . . . . . . . . . . . . .
Generación y selección de conceptos: el uso del CAD . . .
Pruebas y prototipos mediante CAM . . . . . . . . . . . . . . . . .
Estrategias modernas de diseño considerando PLM . . . .
225
227
233
CAPÍTULO 10 Ingeniería económica . . . . . . . . . . . . . . . .
249
10.1
10.2
10.3
10.4
Rentabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Principales medidas de rentabilidad . . . . . . . . . . . . . . . . .
Fuentes de recursos financieros. . . . . . . . . . . . . . . . . . . . .
Estudio de caso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
249
253
257
263
CAPÍTULO 11 Administración de proyectos . . . . . . . . . .
273
11.1
11.2
11.3
11.4
273
275
280
9.5
9.6
9.7
Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
El proyecto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Planeación de proyectos . . . . . . . . . . . . . . . . . . . . . . . . . .
Programación de proyectos con tiempos
de actividades conocidos. . . . . . . . . . . . . . . . . . . . . . . . . .
11.5 Programación de proyectos con tiempos
de actividades inciertos . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.6 Consideraciones de costos . . . . . . . . . . . . . . . . . . . . . . . .
236
242
245
245
294
297
300
x
Contenido
CAPÍTULO 12 Ingeniería y control de la calidad . . . . . .
307
12.1
12.2
12.3
12.4
12.5
12.6
12.7
12.8
La filosofía de calidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Variabilidad en el desempeño. . . . . . . . . . . . . . . . . . . . . . .
Herramientas para analizar y registrar la variabilidad. . . . .
Control estadístico de procesos. . . . . . . . . . . . . . . . . . . . .
Medición de la habilidad de un proceso . . . . . . . . . . . . . .
Six Sigma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Mejora en la habilidad de un proceso . . . . . . . . . . . . . . . .
Las normas ISO 9000 e ISO 14000 . . . . . . . . . . . . . . . . . .
307
310
312
315
321
323
325
327
CAPÍTULO 13 Diseño de planta . . . . . . . . . . . . . . . . . . . .
333
13.1 Planeación de un estudio de diseño de planta . . . . . . . . .
13.2 Localización de plantas, almacenes y servicios
dentro de la planta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13.3 Disposición de planta . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
334
338
357
CAPÍTULO 14 Producción y cadena de suministro . . . .
381
14.1
14.2
14.3
14.4
14.5
14.6
14.7
14.8
14.9
381
381
385
391
401
402
404
407
Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Pronóstico de la demanda . . . . . . . . . . . . . . . . . . . . . . . . .
Planeación agregada de la producción . . . . . . . . . . . . . . .
Administración de inventarios . . . . . . . . . . . . . . . . . . . . . .
Plan maestro de la producción (PMP) . . . . . . . . . . . . . . . .
Planeación de requerimiento de materiales y JIT. . . . . . . .
Administración de la cadena de suministro . . . . . . . . . . . .
El efecto bullwhip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Estrategias de sincronización de la cadena
de suministro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
411
CAPÍTULO 15 Simulación de sistemas . . . . . . . . . . . . . .
415
15.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15.2 Simulación estocástica de evento discreto . . . . . . . . . . . .
15.3 Simulación con Excel y VBA. . . . . . . . . . . . . . . . . . . . . . . .
415
419
436
CAPÍTULO 16 Modelado y optimización . . . . . . . . . . . . .
461
16.1
16.2
16.3
16.4
461
462
465
468
¿Qué es un modelo? . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Clasificación de los modelos . . . . . . . . . . . . . . . . . . . . . . .
Proceso de modelado . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Introducción a la programación lineal . . . . . . . . . . . . . . . .
Contenido
16.5
16.6
16.7
16.8
16.9
Solución de un PPL con dos variables de decisión . . . . . .
Terminología de PL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Caracterización de los modelos de PL . . . . . . . . . . . . . . . .
Análisis de sensibilidad . . . . . . . . . . . . . . . . . . . . . . . . . . .
Solución de un problema de PL con más de dos
variables de decisión . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
xi
471
475
476
480
482
APÉNDICE Introducción a la estadística
y las probabilidades . . . . . . . . . . . . . . . . . . .
485
A.1
A.2
A.3
A.4
A.5
486
491
498
510
518
Introducción a las probabilidades . . . . . . . . . . . . . . . . . . .
Variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Principales distribuciones de variables aleatorias . . . . . . .
Introducción a la estadística descriptiva . . . . . . . . . . . . . .
Introducción a la estadística inferencial . . . . . . . . . . . . . . .
Prefacio
Este libro es la segunda edición de un exitoso texto que ha sido muy bien
acogido por la comunidad académica en toda Hispanoamérica. El enfoque
innovador y el manejo de temas como capítulos independientes y autocontenidos permite utilizarlo en el orden que el docente desee. El contenido ha
sido actualizado y se han agregado diferentes capítulos para hacer el texto
aplicable a cualquier rama de la ingeniería.
Representa el esfuerzo de más de 30 especialistas en 14 instituciones
académicas y en 7 países. Su objetivo es proveer un texto actual con una
visión práctica como introducción a cualquier programa de ingeniería, y
está especialmente diseñado para utilizarse como libro de texto en un curso
de introducción a la ingeniería. Adicionalmente puede ser utilizado como
referencia en cursos de diplomado o de especialización técnica.
Once de los autores responsables de los capítulos de este libro cuentan
con doctorado y los otros dos con grado de maestría; además, todos cuentan con experiencia profesional y académica superior en su área de especialización. Con base en esta característica se logró un balance entre el conocimiento teórico, su aplicación profesional en el campo de trabajo y el
indispensable enfoque académico de todo libro de texto.
El libro cubre la necesidad de contar con un texto actualizado sobre las
distintas áreas de la ingeniería, así como las herramientas, procesos y habilidades indispensables de los ingenieros ante un entorno de globalización,
competitividad e innovación. Así pues, más que un texto detallado, esta
obra representa un cúmulo de conocimientos generales y actualizados sobre las cuestiones generales que un ingeniero debe saber y su aplicación en
el campo laboral dentro de cualquier organización.
Se busca ofrecer un texto actual, dando especial énfasis a las habilidades que todo ingeniero debe poseer: mentalidad creativa e innovadora, habilidad para manejar y entender herramientas computacionales, capacidad
para administrar proyectos con los que tendrá que lidiar en su vida profesional, dominio de técnicas de ingeniería financiera, mentalidad de responsabilidad hacia el medio ambiente y el uso de la energía, y conocimiento de
nuevos productos que satisfagan las cambiantes necesidades de la sociedad
xiv
Prefacio
actual. Asimismo, mantenemos áreas de conocimiento básico que no pueden perderse en ningún ingeniero, como el conocimiento de la probabilidad y la estadística, ciencia de los materiales y procesos de manufactura,
entre otras.
Se compone de 16 capítulos y un anexo sobre probabilidad y estadística. Los primeros dos capítulos presentan una investigación y una visión
introductoria sobre las ingenierías y el mundo de la ingeniería y sus retos a
futuro, respectivamente. El capítulo 3 tiene como propósito presentar una
visión sobre las condiciones dominantes en la nueva economía: globalización, competitividad, innovación y calidad, factores que debe tomar en
cuenta cualquier ingeniero del siglo xxi. Los capítulos 4 y 5 introducen al
estudiante en el uso de herramientas computacionales, así como en algorítmica y programación, habilidades indispensables en el desarrollo de la labor ingenieril. Hoy en día ningún ingeniero se puede sustraer de la gran
responsabilidad que implica ejercer su labor en un ambiente que promueva
el desarrollo sustentable, el cuidado del medio ambiente y el manejo eficiente de los recursos energéticos; estos temas se abordan en el capítulo 6.
Posteriormente, en los capítulos 7 a 13 se presenta una serie de áreas particulares de la ingeniería, como son ciencias de los materiales, procesos de
manufactura, ingeniería del factor humano, diseño de planta, producción y
cadena de suministro, y diseño y desarrollo de productos. Los últimos capítulos del libro se orientan a algunas áreas de aplicación más amplía y en
un contexto de análisis de sistemas, como simulación de sistemas, modelado, ingeniería económica y administración de proyectos. Finalmente, el libro cierra con un apéndice estadístico que provee de herramientas de análisis y sirve como referencia a los ingenieros.
En particular, extendemos nuestro agradecimiento a la Asociación
Mexicana de Cultura, A. C., por su invaluable apoyo para la realización del
proyecto y la generación del texto. Asimismo, es pertinente nombrar a algunas de las instituciones, universidades y organizaciones a las cuales pertenecen los expertos en la materia que participaron en las encuestas realizadas o que han generado material de consulta que fue utilizado en esta
investigación: Technische Universität Berlin y Universität Stuttgart (Alemania); Universidad Tecnológica Nacional (Argentina); Institute of Industrial Engineers Australia y The Industrial Engineering Society of Engineers
Australia (Australia); Institute of Industrial Engineers, National Academy
of Engineering, The George Washington University y World Future Society
(Estados Unidos); University of Surrey (Inglaterra); Instituto de Ingenieros
Industriales México, Instituto Politécnico Nacional, Instituto Tecnológico
Autónomo de México, Instituto Tecnológico de Estudios Superiores de
Monterrey, Universidad Nacional Autónoma de México, Universidad Panamericana y universidades e institutos tecnológicos pertenecientes a la
Secretaría de Educación Pública (México); Pontificia Universidad Católica
del Perú y Universidad Peruana de Ciencias Aplicadas (Perú), y Universi-
Prefacio
xv
dad de la República (Uruguay). A todas estas instituciones, universidades y
organizaciones profesionales les expresamos nuestro más sincero aprecio
y reconocimiento.
Quisiéramos también aprovechar para reconocer la valiosa colaboración de todos los estudiantes que de una u otra forma participaron en el
proyecto. Nuestro especial reconocimiento a Eduardo Andere Portas, Thania Lorena Delgado Arizmendi, Magnolia Deschamps Ang, José Emiliano
Detta Silveira, Joaquín Eduardo Góngora Vazquez, Ernesto Hernández de
Oteysa, Miriam Lira Sánchez, Rodrigo López Sanroman, Edith Martínez
Serrano, David Gonzalo Muñoz Medina, Arturo Palacios Brun, Rodrigo
Nava, Fernando Cea y Paulina Ramos-Alarcón Maldonado. A todos ellos,
gracias por su entusiasmo y por compartir su talento.
Dr. Sergio Romero Hernández
Dr. Omar Romero Hernández
Dr. David Muñoz Negrón
CAPÍTULO
1
Introducción
a la ingeniería
AUTORES:
Sergio Romero Hernández
Omar Romero Hernández
David Muñoz Negrón
Con la colaboración de Rodrigo Nava Ramírez
1.1
1.2
1.3
1.4
1.5
¿Qué es la ingeniería?
Historia de la ingeniería
Perfil del ingeniero
Ética profesional y valores
Propiedad intelectual
1.1 ¿Qué es la ingeniería?
Existe un sin fin de razones por las que la ingeniería despierta interés en los
jóvenes. Muchos estudiantes comienzan a estudiar ingeniería porque se
sienten atraídos por los campos de la ciencia y las matemáticas (Wickert,
2004). Otros se interesan en las distintas ramas de la ingeniería porque están motivados por sus intereses sobre tecnología o por la curiosidad de
saber cómo funcionan las cosas diariamente, o visto desde una perspectiva
entusiasta, cómo funcionan las cosas esporádicamente.
El estudio de la ingeniería es la plataforma mediante la cual puede mejorarse todo sistema. Uno de los objetivos principales de un ingeniero es
adaptar la tecnología para ofrecer soluciones que satisfagan necesidades
del hombre. Esto generalmente implica construir o diseñar un dispositivo
que alcance una meta que anteriormente no pudo ser alcanzada, o que no
fue finalizada tan rápida, exacta o con la seguridad como se deseaba.
La ingeniería es el conjunto de conocimientos y técnicas científicas
aplicadas a la creación y perfeccionamiento de estructuras (tanto f ísicas
como teóricas) y su implementación para la resolución de problemas que
afectan la actividad cotidiana de la sociedad. A diferencia del pensamiento
general, que dice que la palabra ingeniero (engineer) se encuentra asociada
a un motor (engine), etimológicamente la palabra ingeniero procede de ingenio (máquina, artificio), que a su vez proviene del latín ingenium, facultad
de razonar con prontitud y facilidad; en el desarrollo de sus actividades,
2
Capítulo 1
Introducción a la ingeniería
además del conocimiento y la experiencia, lo que distingue al verdadero
ingeniero es la imaginación, la capacidad de proponer soluciones innovadoras o alternativas a las convencionales, sin ser un inventor que razona a
voluntad de su capricho.
El ingeniero debe ser capaz de identificar y comprender las limitaciones (disponibilidad de recursos materiales, humanos, técnicos y económicos), así como los requisitos (por ejemplo, utilidad, seguridad, costo o estética) aplicables al objeto o sistema que pretende diseñar y construir. A
partir de ese conjunto de exigencias, y utilizando sus conocimientos de las
ciencias f ísicas, químicas, matemáticas, económicas, etc., y su propia experiencia, el ingeniero propone soluciones adecuadas al problema planteado.
En la mayoría de los casos la solución no será única, por lo que es necesario
evaluar las diferentes opciones para escoger la óptima.
Definición
El arte profesional de la aplicación de la ciencia para la conversión óptima de los recursos naturales en beneficio del hombre.
La ingeniería es un arte que requiere del juicio necesario para la adaptación
del conocimiento a usos prácticos, así como la imaginación para concebir
soluciones originales a problemas concretos, y la habilidad de predecir el
desempeño y el costo de nuevos procesos. Cualquiera que sea el caso, es
importante reconocer que la ingeniería es distinta de los temas fundamentales sobre ciencia y matemáticas. La ingeniería es la encargada de aterrizar
y dar forma a todos los avances científicos y tecnológicos, gracias a ella
contamos con productos y servicios que facilitan nuestra vida diaria, desde
aviones o computadoras hasta el empaque de cualquier producto.
Comparación con el científico
Un buen científico es una persona con ideas originales. Un buen
ingeniero es una persona que hace un diseño que trabaja con el menor número posible de ideas originales. No hay divas en ingeniería.
Freeman Dyson
Mientras la función del científico es la búsqueda del conocimiento, la del
ingeniero es la aplicación de éste. El científico añade al conocimiento verificado y sistematizado del mundo f ísico; el ingeniero hace uso y aplica el
conocimiento para ocuparse de problemas prácticos. La ingeniería está basada principalmente en la f ísica, química, matemáticas y su injerencia en la
ciencia de los materiales, mecanismos sólidos y fluidos, termodinámica,
procesos de transferencia, sistemas analíticos y de producción, así como
cualquier otro conocimiento relacionado. Básicamente, un ingeniero es un
diseñador que idea sistemas para la resolución de distintos problemas de la
forma más práctica y con el mínimo de recursos, espacio y tiempo posible.
3
1.1 ¿Qué es la ingeniería?
Ciencia
Ingeniería
Tecnología
FIGURA 1.1
A diferencia del científico, el ingeniero no siempre tiene libertad para
seleccionar el problema que le interesa, debe resolver problemas conforme
éstos van apareciendo y su solución debe satisfacer requerimientos, a menudo en conflicto. Generalmente, la eficiencia tiene un costo monetario:
los requerimientos de seguridad añaden complejidad y un proceso mejorado tiene mayor relevancia. La solución del ingeniero debe ser la óptima, o
al menos la más adecuada para la resolución de un problema en un contexto particular. El resultado final que tome en cuenta la mayor cantidad de
factores, a menudo es el elegible.
Además del conocimiento los ingenieros emplean dos tipos de recursos naturales: materiales y energía. Los materiales son útiles por sus propiedades: fuerza, facilidad de fabricación, ligereza, durabilidad, así como
por su habilidad para conducir o aislar, sus propiedades químicas, eléctricas o acústicas. Importantes fuentes de energía incluyen combustibles fósiles (petróleo, carbón, gas), aire, luz solar, fuerza hidráulica y fusión nuclear.
Dado que la gran mayoría de los recursos son limitados, el ingeniero debe
preocuparse por la continua generación de nuevos recursos, así como por
el uso eficiente de los ya existentes, sobre todo los no renovables.
El resultado de las actividades ingenieriles contribuyen al bienestar del
hombre, para proporcionar alimento, refugio y bienestar, haciendo más fáciles y seguros los lugares de trabajo, el transporte y la comunicación, prolongando la vida y haciéndola agradable y satisfactoria. La ingeniería es uno
de los pilares del bienestar social.
Funciones de la ingeniería
Las ramas de la ingeniería indican con qué trabaja el ingeniero, las funciones específicas describen lo que hace el ingeniero. A continuación se muestran algunas de las funciones del ingeniero y su relación con la ciencia:
•
•
•
Investigación. La investigación del ingeniero busca nuevos principios y procesos empleando conceptos matemáticos y científicos,
técnicas experimentales y razonamientos inductivos y deductivos.
Desarrollo. El ingeniero aplica los resultados de la investigación a
propósitos útiles que concluyen en el desarrollo de nuevos productos o procesos. Una aplicación ingeniosa y creativa del nuevo conocimiento puede resultar en un nuevo modelo de trabajo, circuito
eléctrico, técnicas experimentales, un proceso químico o en una
máquina industrial.
Diseño. Al diseñar un proceso o un producto, el ingeniero selecciona métodos, materiales específicos, determina formas para sa-
4
Capítulo 1
Introducción a la ingeniería
Matemáticas
Hardware
Ingeniería
Ciencia
Simulación
por
computadora
FIGURA 1.2
•
•
•
•
tisfacer requerimientos técnicos y conocer algunos rendimientos
específicos.
Construcción. El ingeniero a menudo es responsable de la construcción de sistemas productivos, incluyendo la localización; determina procedimientos que cubrirán segura y económicamente la
calidad deseada, dirigiendo el posicionamiento de materiales y organizando al personal y al equipo.
Producción. Las responsabilidades del ingeniero de producción
incluyen la planeación del proceso y el diseño de planta, así como
la selección del equipo más adecuado, considerando factores humanos, tecnológicos y económicos. El ingeniero selecciona los
procesos y las herramientas, integra el flujo de materiales y componentes y define la metodología para pruebas e inspecciones.
Operación. El ingeniero operador controla máquinas, plantas y
organizaciones suministrando potencia, transporte y comunicación. Él determina los procedimientos y supervisa al personal para
obtener operaciones confiables y económicas en equipos complejos.
Manejo y otras funciones. En algunos países e industrias los ingenieros analizan los requerimientos del cliente, recomiendan equipos para satisfacer sus necesidades de manera óptima y resolver
problemas relacionados. En algunos casos deciden cómo deben ser
utilizados los activos.
1.2 Historia de la ingeniería
Se podría decir que la ingeniería comenzó cuando el primer hombre hizo
herramientas para cazar, dándole forma a una simple piedra, o cuando de
manera consciente usó energía para crear una hoguera; así, la ingeniería
ha evolucionado en el tiempo a la par del hombre (Wickert, 2004). Los
1.2 Historia de la ingeniería
5
elementos que han sido considerados como esenciales en el desarrollo
de la tecnología y consecuentemente en la historia del hombre son: la
rueda, la palanca, la polea y el uso de metales fundidos para la creación de
distintos objetos; sin embargo, las fechas exactas de estos hallazgos son
desconocidas.
Los primeros ingenieros fueron arquitectos, especialistas en irrigación
e ingenieros militares. El primer ingeniero conocido por su nombre y logro
fue Imhotep, constructor de la famosa pirámide en Sakkara, en la cercanía
de Memphis, aproximadamente en el año 2550 a.C. (Hicks, 1999). Con base
en métodos empíricos auxiliados por la aritmética, la geometría, así como
por nociones de la ciencia física, los sucesores de Imhotep —egipcios, persas, griegos y romanos— llevaron a la ingeniería civil a alturas extraordinarias. El Faro de Alejandría, el Templo de Salomón en Jerusalén, el Coliseo
en Roma, los sistemas carreteros de Roma y Persia, el acueducto de Pont du
Gard en Francia y muchas otras grandes construcciones, algunas de las
cuales aún perduran, testifican sus habilidades, imaginación y atrevimiento. De los muchos tratados escritos por todos ellos, uno en particular sobrevive para proveer una imagen de la enseñanza de la ingeniería y práctica
en la época clásica: ‘Vitruvirus’ de arquitectura, publicado en Roma en el
siglo i d.C., una obra de diez volúmenes, los cuales tratan acerca de los materiales de construcción, métodos de construcción, métodos hidráulicos,
medidas y urbanismo.
Las civilizaciones antiguas muestran que el trabajo sobre piedra tuvo
un gran desarrollo, y así lo podemos comprobar con las inmensas estructuras en Egipto, Mesopotamia, Grecia, Roma, Lejano Oriente, América Central y América del Sur, que al día de hoy podemos visitar. Un ejemplo sería
la Pirámide de Keops, la cual fue construida alrededor de los años 4235 y
2450 a.C., y que contaba originalmente con una altura de 48 pisos; a pesar
del paso de miles de años todavía está en pie. Así, en la Antigüedad se comenzaron a construir inmensas ciudades, las cuales contaban también con
puentes, canales, acueductos o métodos eficientes para la agricultura.
Al igual que los ingenieros de la época clásica, los ingenieros de la Europa medieval combinaron sus habilidades militares y civiles, y en el reino
de la construcción llevaron a la técnica (en forma de arcos góticos) a lugares muy altos y desconocidos para los romanos. El borrador de Villard de
Honnecourt (1200-1250 d.C.), uno de los ingenieros del gótico más conocidos, revela el gran conocimiento de los ingenieros profesionales en áreas
como las matemáticas, geometría, ciencias naturales, f ísica y diseño.
En el Lejano Oriente, en India, China, Japón y otras regiones la ingeniería tuvo un desarrollo separado pero muy similar. Fue con la ayuda de
extraordinarias y sofisticadas técnicas de construcción, hidráulicas y metalúrgicas que se edificaron civilizaciones tan avanzadas como el Imperio
Mongol, cuyas grandes y bellas ciudades impresionaron a Marco Polo en el
siglo xiii.
6
Capítulo 1
Introducción a la ingeniería
El arado fue un hallazgo vital, sucedió en la Antigua China, así como
también lo fue el papel y la pólvora. El Occidente no se quedó atrás, los
romanos extendieron el elemento del arco, cuya capacidad era inimaginable para esos tiempos y que permitió construir la mayoría de las espectaculares catedrales góticas.
La Edad Media no fue tan oscura como parece, ya que aparte de las
grandes creaciones arquitectónicas que se realizaron, se inventaron infinidad de cosas, destacando la imprenta y el reloj de contrapeso, que fueron de
enorme impacto para el progreso en la historia.
Fueron Georgius Agrícola y Galileo Galilei quienes establecieron las
primeras bases científicas de la ingeniería. Agrícola, en 1556, recopiló y
organizó sus conocimientos sobre metalurgia y minería de manera sistemática, para posteriormente documentarlo y publicar su obra maestra De
Re Metallica. Sobre Galileo Galilei todos tienen una idea de quién fue, sobre todo por sus observaciones astronómicas. También intentó desarrollar
teorías de tensión para estructuras, aunque al no calcular la elasticidad de
los materiales sus cálculos fueron erróneos. Sin embargo, en 1678 las bases
de la actual teoría de la elasticidad se dieron a conocer, cuando Robert
Hooke publicó el primer artículo sobre este tema. Así como ellos, en la
historia han existido muchos grandes genios, cuyos descubrimientos han
hecho llegar a la humanidad hasta donde está.
Ya en el siglo xvii, ocurrió un acontecimiento extraordinario: el hombre descubrió la manera de transformar la energía calorífica en trabajo mecánico. Pero para alcanzar este hallazgo muchos descubrimientos tuvieron
que suceder: Evangelista Torricelli inventó el barómetro, y junto con Galileo “descubrieron” la atmósfera; Blaise Pascal descubrió la presión atmosférica. En 1672, Otto von Guericke desarrolló un cilindro con un pistón
móvil, que fue la primera bomba de aire, la cual sería el principio del motor
de combustión. En 1690, Denis Papin relató en un ensayo publicado la invención de la primera máquina atmosférica de vapor. A principios del siglo
xviii, Thomas Newcomen construyó, con las bases de Papin, la primera
máquina de vapor funcional, y 70 años después James Watt mejoró tremendamente la máquina de vapor, siendo la base de la Revolución Industrial.
Entre 1700 y 1950 se vivieron enormes cambios en los sistemas de producción; hacia 1750 el motor de Watt se usaba de forma general y por el
año 1825 aparecieron las primeras locomotoras. Comenzaron a situarse
fábricas casi en cualquier lugar, también se creó la necesidad de grandes
cantidades de uso de combustible, que en este caso fue el carbón, para
transformarlo en suficiente poder calorífico para lograr fundir los metales,
principalmente el hierro.
Durante el siglo xix y principios del xx la explotación de la mano de
obra iba creciendo en las ciudades, haciendo de éstas lugares sucios, contaminados e impersonales. A pesar de este hecho, se debe admitir que la
evolución y mejoramiento en los sistemas de fabricación provocaron un
gran avance en la productividad, lo que mejoró sobremanera el nivel de
1.2 Historia de la ingeniería
7
vida en las naciones industrializadas. Todo este movimiento comenzó en
Inglaterra y supuso una tremenda transformación de la economía y la
sociedad británica. La cantidad de productos manufacturados creció exponencialmente, ya que por fin se usaban técnicas eficaces. Toda especialización laboral aumentaba día con día. Procesos parecidos se experimentaron
a mediados del siglo xix en Bélgica, Francia, Alemania y, principalmente,
Estados Unidos; en Japón y Suecia sucedió a finales de siglo; en Rusia y Canadá este movimiento llegó a principios del siglo xx, y a mediados en
Oriente Próximo, Asia Central y algunos países de Latinoamérica.
La industria del ferrocarril era de las que más atención tenía. En el siglo
xix se alcanzó un hallazgo de enorme valor: el motor de combustión interna; en la segunda mitad del siglo se hicieron experimentos en esta línea,
principalmente por los alemanes Otto y Diesel, lo que llevó a los principios
del motor que usan la mayoría de los automóviles hoy en día.
Michael Faraday formuló un principio fundamental: la capacidad de
inducir corriente eléctrica a partir de cambios en un campo magnético. La
ingeniería en telecomunicaciones se basa en este principio, cuando se inventó el telégrafo en 1836, gracias a Samuel F. B. Morse. Contando con un
principio eléctrico aparecieron los primeros motores eléctricos. Thomas A.
Edison desarrolló el foco, conocido como bombilla eléctrica, y el crecimiento del alumbrado disparó la demanda de electricidad. En 1890 ya existían modernos generadores, los cuales fueron de gran uso en toda industria
que quisiera utilizar la energía eléctrica, es decir, casi todas.
En su obra Reflections on the Motive Power of Fire, Sadi Carnot concibió un ciclo termodinámico que constituye el ciclo básico de todos los motores térmicos, junto con la Segunda Ley de la Termodinámica. Se le unió
James C. Maxwell, quien también explicó las propiedades más importantes
del electromagnetismo; amplió la investigación de Faraday, demostrando la
relación matemática entre los campos magnéticos y eléctricos. En 1888,
Nicola Tesla diseñó el primer sistema práctico para generar y transmitir
corriente alterna para sistemas de energía eléctrica. Estos diseños y descubrimientos representan las raíces de la radiocomunicación.
La mayor parte de los logros del siglo xx tiene fundamento en los descubrimientos de los siglos anteriores. Sin embargo, existen dos desarrollos
que han afectado tremendamente la ingeniería: la teoría de la relatividad de
Einstein y la aparición de la mecánica cuántica. Asimismo, el avance en la
investigación y la constante búsqueda de nuevos conocimientos ha seguido
su vertiginoso ritmo; en los últimos años se han incorporado campos del
conocimiento que antes no formaban parte de la ingeniería, como la genética y la investigación nuclear.
A pesar de existir un número cada vez mayor de ramas de la ingeniería,
persiste la necesidad de contar con conocimientos básicos de áreas afines,
ya que gran parte de los problemas a los que se enfrentan los ingenieros
están interrelacionados.
8
Capítulo 1
Introducción a la ingeniería
Las primeras instituciones
El impacto y el potencial de las actividades realizadas por los ingenieros, así
como la necesidad de contar con escuelas e institutos específicamente dedicados a esta área del conocimiento, fueron reconocidos desde hace más
de dos siglos. El Real Seminario de Minería en México se funda el 1 de
enero de 1792, y se le dota del más distinguido cuerpo de profesores que
pueda conjuntarse, encabezado por el insigne Fausto de Elhuyar; es la primera escuela de Latinoamérica. En 1795, en París, Napoleón accedió a que
se fundara L´École Polytechnique, la cual se convirtió en la primera escuela de ingeniería en el mundo. Tiempo después, en 1824, se fundó la primera
escuela de ingeniería de Estados Unidos, The Rensselaer Polytechnic Institute (Hicks, 2001). Hasta finales del siglo xix la ingeniería era sólo civil o
militar. Sin embargo, en 1880 nació la Sociedad Estadounidense de Ingenieros Mecánicos; cuatro años más tarde se fundó la Sociedad Estadounidense de Ingenieros Eléctricos, y en 1908 el Instituto Estadounidense de
Ingenieros Químicos. Tuvieron que pasar 40 años para que surgiera el último gran campo dentro de las ingenierías, así es como en 1948 se funda el
Instituto Estadounidense de Ingenieros Industriales. La formalización de
las carreras de ingeniería, así como la creación de nuevas escuelas, centros
de investigación, empresas y sociedades de ingeniería, también sirvieron de
motor para continuar descubriendo aplicaciones de la ciencia y lograr mejoras en la humanidad.
Los 20 principales logros de la ingeniería en el siglo XX
La mayoría de historiadores coincide en que el siglo pasado fue el más productivo en toda la historia de la humanidad en cuanto a la cantidad y el
impacto de los descubrimientos. A continuación se presenta lo que para
algunos son los 20 hallazgos más grandiosos de la ingeniería en el siglo xx,
según la Academia Nacional de Ingeniería de Estados Unidos. En esta sección no se pretende dar un orden jerárquico en cuanto a la importancia de
los hallazgos, tampoco se plantean estos 20 como los únicos de relevancia.
Más allá de esto, esta sección presenta al estudiante una serie de hallazgos
producto del trabajo de muchos ingenieros, por lo que ilustra en parte
cómo la ingeniería ha transformado y cambiado al mundo entero.
1. Electrificación. En el siglo xx una electrificación extendida le
brindó poder a nuestras ciudades, fábricas, granjas y a todos los
hogares, lo que cambió para siempre nuestras vidas. Miles de ingenieros hicieron que sucediera, con trabajo innovador en fuentes de
combustible, técnicas para la generación de potencia y redes de
distribución de transmisión eléctrica. Pasamos de faroles a supercomputadoras, la energía eléctrica hace nuestra vida más segura,
sana y confortable.
1.2 Historia de la ingeniería
9
2. Automóvil. El automóvil podría ser el último símbolo de la libertad personal. Es también el mayor transportista de personas y bienes en el mundo, y es una importante fuente de crecimiento económico y de estabilidad. El automóvil es un espectáculo del ingenio
de la ingeniería del siglo xx, habiendo experimentado innumerables innovaciones del diseño, en la producción y la seguridad.
3. Aviones. Hasta hace poco se podía ir de Europa a América en
4 horas en el Concorde, mientras que en 1900 el mismo viaje tomaba de 7 a 10 días en barco. La transportación aérea moderna es
responsable del rápido flujo de bienes y personas alrededor del
mundo, facilitando nuestra interacción personal, cultural y comercial. La innovación de la ingeniería, de los hermanos Wright a
jets supersónicos, ha hecho todo esto posible.
4. Suministro y distribución del agua. Hoy, el simple hecho de
girar una llave nos proporciona agua limpia: un invaluable recurso. Los avances de la ingeniería para manejar este recurso, con el
tratamiento de agua, el suministro y sistemas de distribución,
cambiaron profundamente la vida en el siglo xx, eliminando virtualmente las enfermedades en países en vías de desarrollo, y proporcionando agua limpia y abundante para comunidades, cultivos
e industrias. Esta tarea lleva un importante camino recorrido, pero todavía dista de estar concluida, tal y como se expresa en las
Naciones Unidas al indicar que el suministro de agua potable y
alcantarillado en los países en vías de desarrollo es una de las prioridades de este siglo xxi (Cumbre Mundial de Johannesburgo,
2002).
5. Electrónica. La electrónica proporciona la base de un sinnúmero
de innovaciones: reproductores de CD, televisiones y computadoras, válvulas electrónicas, transistores y circuitos integrados, por
citar algunos productos. Los ingenieros han hecho la electrónica
más pequeña, poderosa y eficiente, preparando el terreno para los
productos que han mejorado la calidad y el confort de la vida moderna.
6. Radio y televisión. La radio y la televisión fueron grandes agentes
del cambio social en el siglo xx, abriendo ventanas a otras vidas, a
lugares remotos del mundo y a la construcción de la historia. Del
telégrafo inalámbrico a los avanzados sistemas satelitales actuales
los ingenieros han desarrollado tecnologías notables que informan
y entretienen a millones cada día.
7. Mecanización de la agricultura. La maquinaria del campo, tractores, cultivadores, cosechadoras y centenares de otros dispositivos aumentó drásticamente la eficiencia del campo y productividad en el siglo xx. A comienzos de ese siglo, cuatro campesinos
podían alimentar a cerca de 10 personas; al fi nal, con la ayuda de
10
Capítulo 1
8.
9.
10.
11.
12.
13.
Introducción a la ingeniería
las innovaciones en mecanización agrícola un solo campesino
puede alimentar a más de 100.
Computadoras. La computadora es un símbolo que defi ne a la
tecnología del siglo xx, un instrumento que ha transformado
negocios y vidas alrededor del mundo, incrementó la productividad y abrió las puertas al conocimiento. Las computadoras convirtieron el trabajo pesado en tareas sencillas y brindaron nuevas
capacidades a tareas complejas. La genialidad de la ingeniería
en computación le dio marcha a esta revolución y continúa haciendo computadoras más rápidas, poderosas y económicas.
Teléfono. El teléfono es un elemento fundamental de la vida moderna. Las conexiones casi instantáneas entre amigos, familias,
negocios y naciones permiten comunicaciones que mejoran nuestra vida, industrias y economías. Con notables innovaciones los
ingenieros nos han brindado desde alambres de cobre hasta la fibra
óptica, de centrales telefónicas a satélites y de líneas comunes a
celulares e internet.
Aire acondicionado y refrigeración. El aire acondicionado y la
refrigeración cambiaron la vida inmensamente en el siglo xx. Docenas de innovaciones ingenieriles hicieron posible transportar y
almacenar alimentos frescos, y adaptar cualquier ambiente a las
necesidades humanas. Alguna vez costosos y caros, el aire acondicionado y la refrigeración son satisfactores ahora comunes que aumentan nuestra calidad de vida.
Autopistas. Las autopistas proporcionan una de las más grandes
ventajas de la vida moderna: la libertad de la movilidad personal.
La historia de su construcción es una de las más notables del siglo
xx. Miles de ingenieros diseñaron y construyeron los caminos,
puentes y túneles que conectan nuestras comunidades, permitiendo que los bienes y servicios alcancen áreas remotas, alienten el
crecimiento y faciliten el comercio.
Naves espaciales. Desde pruebas tempranas de cohetes a sofisticados satélites, la experiencia humana en el espacio es, quizás, la
proeza que más asombra a la humanidad del siglo xx. El desarrollo de naves espaciales ha estremecido el mundo, ampliado nuestra base de conocimiento y mejorado nuestras capacidades. La investigación en programas espaciales ha beneficiado también a la
humanidad, ya que miles de productos útiles y servicios han resultado del programa de investigaciones espaciales, inclusive dispositivos médicos, mejores pronósticos del tiempo y comunicaciones
inalámbricas.
Internet. Inicialmente fue un instrumento para ligar a los centros
de cómputo con centros de investigación avanzada. El Internet ha
llegado a ser un instrumento esencial del cambio social, un vehícu-
1.2 Historia de la ingeniería
14.
15.
16.
17.
18.
11
lo que promueve mayores innovaciones de la ingeniería, un agente
de cambio en la práctica empresarial, los objetivos educativos y las
comunicaciones personales. Proporcionando el acceso global a noticias, al comercio y a grandes fuentes de información, el Internet
nos une y agrega eficiencia a nuestras vidas.
Procesamiento de imágenes. De átomos diminutos a galaxias lejanas, el siglo xx se llena de imágenes obtenidas gracias a las tecnologías, estas imágenes han ensanchado el alcance de nuestra
visión. Visualizando el interior del cuerpo humano, trazando fondos del océano, rastreando las pautas de tiempo, todo es el resultado de los avances del procesamiento de imágenes. Emparejado con
la computadora, nos da vistas nuevas e increíbles de todo aquello
que nos rodea, visible o invisible al ojo humano.
Aparatos domésticos. Los aparatos domésticos cambiaron radicalmente el estilo de vida del siglo xx, eliminando gran parte del
trabajo de tareas diarias. La innovación generada por la ingeniería
produjo una gran variedad de dispositivos, incluyendo extensiones
eléctricas, aspiradoras, lavadoras, lavaplatos y secadoras. Estos y
otros productos nos dan más tiempo libre, permiten que las personas puedan trabajar fuera del hogar y contribuyan a nuestra economía.
Tecnologías para la salud. Los avances en la tecnología médica
en el siglo xx fueron asombrosos. Armados con sólo unos pocos
instrumentos en 1900, los profesionales médicos ahora tienen un
arsenal de equipos para el diagnóstico y tratamiento clínico a su
disposición. Los órganos artificiales, prótesis remplazables, tecnologías en procesamiento de imágenes y biomateriales, son sólo algunos de los productos dirigidos que mejoran la calidad de vida a
millones.
Tecnologías del petróleo y petroquímicas. El petróleo ha sido un
componente fundamental en la vida del siglo xx; proporciona el
combustible para automóviles, hogares e industrias. También de
suma importancia son los productos petroquímicos, que se utilizan en la fabricación desde la aspirina hasta las cremalleras. Todo
comenzó dirigiendo los avances en la exploración del petróleo y su
procesamiento; los derivados del petróleo han tenido un enorme
impacto en economías de mundo, en las personas y la política.
Láser y fibras ópticas. Pulsos de luz provenientes de un láser se
utilizan en instrumentos industriales, en dispositivos quirúrgicos,
en los satélites, entre otros. En comunicaciones, hoy en día las fibras
de vidrio sumamente puras proporcionan la infraestructura para
llevar información vía luz láser, un logro técnico revolucionario. Un
solo cable de fibra óptica puede transmitir decenas de millones de
llamadas telefónicas, archivos de datos e imágenes de video.
12
Capítulo 1
Introducción a la ingeniería
19. Tecnologías nucleares. La utilización del átomo cambió la naturaleza de la guerra para siempre y asombró al mundo con su impresionante poder. Las tecnologías nucleares también nos dieron
una nueva fuente para la generación de energía eléctrica y capacidades nuevas en la investigación médica y el procesamiento de
imágenes. Aunque polémicos, los logros de la ingeniería relacionados con tecnologías nucleares deben considerarse entre los más
importantes del siglo xx.
20. Materiales de alto rendimiento. Desde los bloques de construcción de hierro y acero, hasta los últimos avances en polímeros, cerámica y compuestos, el siglo xx vio una revolución en materiales.
Los ingenieros los han hecho a la medida y han aumentado sus
propiedades para permitir su uso en miles de aplicaciones. Los materiales de alto rendimiento utilizados en aviones, dispositivos médicos, computadoras y otros productos tienen un gran impacto en
nuestra calidad de vida.
La ingeniería y el diseño. Un aspecto en común que puede identificarse en el
listado de los 20 logros de la ingeniería presentados es que en todos ellos
interviene el proceso de diseño. Éste busca satisfacer una necesidad del
hombre mediante la conjunción de las tecnologías existentes disponibles
y/o la adaptación de tecnologías emergentes. El diseño va más allá de la
conceptualización de productos y abarca sistemas integrados de personas,
materiales, información, equipo y energía. El diseño es una de las funciones
más importantes en la actividad profesional del ingeniero.
La búsqueda e identificación de la mejor solución ante un problema
determinado son una de las razones de la ingeniería, y el proceso de diseño
una de las metodologías más utilizadas. El proceso de diseño en ingeniería
puede resumirse en las siguientes etapas:
1.
2.
3.
4.
5.
6.
7.
8.
Definición del problema y alcance de la solución.
Identificación de restricciones del problema.
Búsqueda de información relacionada.
Planteamiento de posibles soluciones.
Eliminación de soluciones no viables.
Identificación de la mejor solución.
Definición de las especificaciones de la solución.
Comunicación de la solución.
Este proceso se aplica para las distintas ramas de la ingeniería, independientemente del tipo de problema y de los alcances de la solución deseada.
La figura 1.3 ilustra las distintas ramas de la ingeniería y el tipo de actividades en las que se enfoca cada una de estas ramas.
1.3 Perfil del ingeniero
Otros
28%
Mineral
1%
13
Eléctrico y
electrónico
24%
Nuclear
1%
Mecánico
15%
Petróleo
1%
Materiales
1%
Químico
3%
FIGURA 1.3
Industrial
3%
Civil
13%
Aeroespacial
4%
1.3 Perfil del ingeniero
La principal característica de un ingeniero es su capacidad para resolver
problemas gracias al amplio dominio práctico y teórico de matemáticas,
f ísica y química, así como cualquier otro conocimiento relacionado con su
área. Dentro de las principales habilidades que un ingeniero debe poseer se
encuentran las siguientes:
El liderazgo y la correcta evaluación de información son habilidades
fundamentales para que un ingeniero realice su trabajo de la mejor manera.
Las responsabilidades del ingeniero y el constante bombardeo de información lo obligan a desarrollar capacidades para filtrar, separar, organizar información para definir rutas y tomar decisiones. El ingeniero debe tener
habilidades para dirigir a un grupo de personas, delegar, escuchar, convencer y buscar el bienestar de todos.
La capacidad analítica es un recurso al cual el ingeniero recurre constantemente, lo que le brinda la forma de plantear los problemas de manera
más sencilla, descomponiéndolos en todos sus elementos y definiendo la
estrategia para lograr la solución óptima y en el menor tiempo posible.
Existe la tendencia a visualizar al ingeniero como un técnico; aquella
persona que al saber el funcionamiento de ciertos sistemas puede repararlos o mejorarlos. Pero como la misma palabra lo indica, la principal función
de un ingeniero es desarrollar el ingenio, innovar en el campo que se
desempeñe. Esto nos lleva a que un ingeniero debe ser creativo, característica crucial que debe poseer.
14
Capítulo 1
Introducción a la ingeniería
Un ingeniero nunca trabaja solo, su trabajo intrínsecamente necesita
de la incorporación de un mayor número de personas, debido a la complejidad de los problemas a los que se enfrenta. Ahora estos grupos de trabajo
normalmente van a ser multidisciplinarios, donde un ingeniero no se encontrará sólo con otros ingenieros o personas del medio científico, sino
también con arquitectos, administradores e incluso abogados. Así, un ingeniero debe poseer tanto la capacidad de comunicar de forma clara y
concisa, oral o escrita (lo que desea), como la capacidad de trabajar en
equipo y poder sacar lo mejor de cada persona con la que trabaja, para
llegar a la solución de cualquier problema de forma más rápida.
1.4 Ética profesional y valores
Uno de los aspectos que cada día cobra mayor relevancia dentro de la formación del ingeniero es la ética profesional y los valores. Aunque hace un
par de décadas sólo algunas escuelas de ingeniería en el mundo otorgaban
créditos académicos en materias sobre ética profesional, hoy en día se ha
convertido en una parte importante dentro de la formación del ingeniero.
En este sentido, los medios de comunicación han jugado un papel importante al divulgar las prácticas de compañías trasnacionales y las decisiones
de sus directivos, las cuales, en algunos casos, han repercutido en consecuencias lamentables.
El texto sobre ética en la ingeniería de Fleddermann (1999) representa
un banco de casos de estudio en el campo del comportamiento de los profesionales, y de él se extrae el siguiente caso:
En 1978 se registró un accidente de tránsito donde un vehículo Ford
Pinto fue golpeado por la parte de atrás. El impacto provocó una fisura en
el tanque de gasolina del auto, lo cual generó un incendio y la muerte de
tres pasajeros. Ésta no era la primera vez que un automóvil Pinto se incendiaba como resultado de una colisión trasera. En los últimos siete años ya
se habían registrado cerca de 50 demandas relacionadas con impactos traseros. Sin embargo, esta vez Ford fue demandado ante una corte criminal
en Estados Unidos por la muerte de los pasajeros. Esto significaba que algunos ingenieros o gerentes de la empresa podrían ir a la cárcel por negligencia. Las investigaciones demostraron que a pesar de que el diseño del
tanque cumplía con los estándares federales de seguridad de aquel entonces, había varios estándares de ingeniería que no se cumplían. Más aún, en
el juicio se determinó que algunos ingenieros de Ford estaban conscientes
del riesgo que representaba el diseño del tanque, pero los directivos de
la empresa estaban más preocupados por tener listo el Pinto y lanzarlo
rápidamente al mercado a un precio competitivo, en relación con otros autos subcompactos que ya estaban en el mercado. El dilema que enfrentaron
los ingenieros de diseño se resumía en un balance entre la seguridad de los
pasajeros y la necesidad de producir el automóvil a un precio que fuera
1.4 Ética profesional y valores
15
competitivo en el mercado. En otras palabras, balancear sus obligaciones
con los consumidores y sus obligaciones dentro de la empresa. Al final, el
intento de Ford por ahorrarse algunos dólares en la manufactura le representó millones de dólares en pagos a sus abogados y a las víctimas, sin mencionar el efecto que tuvo en la percepción del público y la consecuente
caída en ventas.
El número de casos documentados es cada vez mayor, al grado que
casi todas las asociaciones de ingeniería publican su código de ética. Se
sugiere revisar los códigos de ética y los casos (algunos incluyen respuestas) en la dirección electrónica del Institute of Industrial Engineers para el
caso de ingeniería industrial, y la correspondiente dirección para las carreras de ingeniería electrónica, ingeniería civil, ingeniería mecánica, ingeniería química; la National Science Fundation, y en particular, The Online
Ethics Center for Engineering & Science, las direcciones de algunos de estos institutos se presentan al final del capítulo. También se sugiere al estudiante investigar en las asociaciones e institutos de ingeniería de su país.
La necesidad de la ética
En términos generales, la ética profesional y los valores involucran cuestiones de responsabilidad, solución de problemas y toma de decisiones ante
diversas situaciones. Día a día, el ser humano se enfrenta a la necesidad de
hacer elecciones para cada actividad que realiza y en esto se funda la necesidad de la ética. Siempre existen infinidad de opciones a elegir, se tienen
más de una forma de realizar una asignación y más de una manera de resolver un problema. Así, el hombre elige la manera que más le agrada, que más
le conviene, eligiendo una alternativa y no otra (Mitcham, 2001).
Se sabe que una persona puede desempeñar bien o mal una tarea, hacer daño o ayudar a otro de distintas maneras, elegir una herramienta en
lugar de otra, etc. Aquí es donde entra la ética, la cual brinda una opción
basada en experiencias de asuntos humanos. El hombre es libre, por eso
puede elegir, y con esa libertad viene la ética y, por supuesto, muchas responsabilidades. La ética es como una guía en la toma de decisiones. Pero
estas decisiones no habían sido siempre notorias en el ámbito de las actividades técnicas.
El hecho de que la tecnología haya evolucionado tanto en las últimas
décadas ha provocado que los planes de estudio de las carreras de ingeniería cambien, creciendo el interés por la importancia de la responsabilidad
ética y social de los ingenieros, así como los valores que los mismos deben
tener.
El ingeniero lleva consigo la enorme responsabilidad de la toma de decisiones. Es por eso que el hecho de formar profesionales técnicamente
aptos y competentes, y que además cuenten con una sensibilidad ética y
con valores, es todo un reto. Para que un ingeniero cumpla su deber, tanto
técnica como éticamente, debe tener claros los siguientes conceptos: po-
16
Capítulo 1
Introducción a la ingeniería
seer un juicio y sensibilidad éticos, conocer estándares de conducta y actuar éticamente (saber actuar bien sin que nadie se lo indique). Todos los
conceptos anteriores coinciden en que la responsabilidad profesional está
fundamentada por éstos, es decir, se convierte en una responsabilidad moral que se forma al adquirir estos conocimientos. Así, los ingenieros deben
reconocer que la vida, la seguridad, la salud y el bienestar de la población
dependen de su juicio, y que la vida siempre se encuentra por encima del
bien material.
Un ingeniero responsable tiene como objetivo crear un producto o servicio tecnológico, seguro y, sobre todo, útil para que el cliente se sienta satisfecho y esté seguro al hacer uso de éste, en caso de que tuviera algún
riesgo. Con esto viene una responsabilidad, un compromiso con la sociedad, para mantener siempre su bienestar, su salud y su seguridad. El problema que tiene el ser humano como individuo es que cada uno tiene intereses
personales, los cuales afectan directamente el comportamiento moral del
individuo. Actividades como lealtad a los compañeros o socios, lealtad a la
empresa, entrega de cuentas claras y manejo correcto de información clasificada podrían resultar afectadas cayendo en actos deshonestos, como
sobornos, actos de cohecho, venta de información, entre otras.
Existen varios códigos de ética que a lo largo del tiempo se han incluido
en la educación del ingeniero, pero el instrumento que más respuesta ha
tenido es el método de usar y resolver casos. Éstos pueden ser casos que
sucedieron en la vida real, o ficticios con supuestos definidos. Se le brinda
al alumno toda la información necesaria sobre éstos, y su deber es resolverlos de la mejor manera posible, dándole obviamente prioridad a la ética.
Esto puede ir desarrollando un sentido o habilidad ética para resolver problemas que se verán reflejados en la práctica.
Las instituciones educativas deben preocuparse por que sus estudiantes formen una conciencia social. La gente joven cuenta con la habilidad y
motivación para realizar correctamente los trabajos o tareas que le son
asignados, es por ello que en esta etapa se debe crear esta conciencia. Todos los proyectos en ingeniería deben analizarse desde cuatro perspectivas:
factibilidad técnica, social, económica y ambiental.
En todo el mundo se viven cambios constantemente, cambios que no
siempre traen buenas consecuencias, por lo que resulta de suma importancia incrementar el número de personas capaces de aplicar todos sus conocimientos de una manera responsable no sólo en el aspecto técnico, sino
también en el ético.
En muchos países y en distintas organizaciones e instituciones se
crean códigos de ética para que el ingeniero los aplique cuando realice su
trabajo. Una búsqueda realizada por los autores de este capítulo y la retroalimentación de varias fuentes de información en Latinoamérica indican que existen bastantes similitudes entre los códigos de ética de cada
país. A continuación se muestra un ejemplo con el código de ética que la
1.4 Ética profesional y valores
17
Asamblea General Ordinaria de la Unión Mexicana de Asociaciones de
Ingenieros adoptó:
El ingeniero reconoce que el mayor mérito es el trabajo, por lo que
ejercerá su profesión comprometido con el servicio a la sociedad
mexicana, atendiendo al bienestar y progreso de la mayoría.
Al transformar la naturaleza en beneficio de la humanidad, el
ingeniero debe acrecentar su conciencia de que el mundo es la morada del hombre y de que su interés por el universo es una garantía
de la superación de su espíritu y del conocimiento de la realidad
para hacerla más justa y feliz.
El ingeniero debe rechazar los trabajos que tengan como fin
atentar contra el interés general; de esta manera evitará situaciones que impliquen peligros o constituyan una amenaza contra
el medio ambiente, la vida, la salud y demás derechos del ser humano.
Es un deber ineludible del ingeniero sostener el prestigio de la
profesión y velar por su cabal ejercicio; asimismo, mantener una
conducta profesional cimentada en la capacidad, la honradez, la
fortaleza, la templanza, la magnanimidad, la modestia, la franqueza y la justicia, con conciencia de subordinar el bienestar individual al bien social.
El ingeniero debe procurar el perfeccionamiento constante de
sus conocimientos, en particular de su profesión; divulgar su saber;
compartir su experiencia; proveer oportunidades para la formación y la capacitación de los trabajadores; brindar reconocimiento,
apoyo moral y material a la institución educativa en donde realizó
sus estudios, de esta manera revertirá a la sociedad las oportunidades que ha recibido.
Es responsabilidad del ingeniero que su trabajo se realice con
eficiencia y apoyo a disposiciones legales. En particular, velará por
el cumplimiento de las normas de protección a los trabajadores establecidas en la legislación laboral mexicana.
En el ejercicio de su profesión, el ingeniero debe cumplir con
diligencia los compromisos que haya asumido y desempeñará
con dedicación y lealtad los trabajos que se le asignen, evitando
anteponer su interés personal en la atención de los asuntos que se le
encomienden, o coludirse para ejercer competencia desleal en perjuicio de quien reciba sus servicios.
Observará una conducta decorosa, tratando con respeto, diligencia, imparcialidad y rectitud a las personas con las que tenga
relación, particularmente a sus colaboradores, absteniéndose de
incurrir en desviaciones y abusos de autoridad y de disponer o autorizar a un subordinado conductas ilícitas, así como de favorecer
indebidamente a terceros.
18
Capítulo 1
Introducción a la ingeniería
Debe salvaguardar los intereses de la institución o persona para la que trabaje y hacer buen uso de los recursos que se le hayan
asignado para el desempeño de sus labores.
Cumplirá con eficiencia las disposiciones que en ejercicio de sus
atribuciones le dictaminen sus superiores jerárquicos, respetará y
hará respetar su posición y trabajo; si discrepara de sus superiores
tendrá la obligación de manifestar ante ellos las razones de su discrepancia.
El ingeniero tendrá como norma crear y promover la tecnología
nacional; pondrá especial cuidado en vigilar que la transferencia
tecnológica se adapte a nuestras condiciones conforme al marco legal establecido. Se obliga a guardar secreto profesional de los datos
confidenciales que conozca en el ejercicio de su profesión, salvo que
le sean requeridos por autoridad competente.
1.5 Propiedad intelectual
Un área importante dentro de las actividades y el campo de acción del ingeniero es la gestión de la propiedad intelectual. En la actualidad, empresas
privadas y centros de investigación en ingeniería llevan a cabo trabajos
orientados a la generación de conocimiento tecnológico, que eventualmente es susceptible de ser transferido a la industria. En la mayoría de casos el
énfasis en el trabajo del investigador es descubrir y deja a un lado la protección de los derechos de autor y el valor económico que podría generar a los
usuarios y a las instituciones. Aunado a lo anterior, hoy en día es común
encontrar que los gobiernos de la mayoría de los países aumentan las exigencias para que el trabajo de investigación generado en centros públicos
sea transferido y genere recursos propios. El ingeniero no puede mantenerse al margen de la gestión de la propiedad intelectual.
La gestión de la propiedad intelectual va más allá de la simple protección del conocimiento generado, e incluye la vigilancia del patrimonio tecnológico, la generación de políticas de transferencia de tecnología o licenciamiento, la selección y diseño de proyectos y políticas de promoción de
los inventos, y su impacto a lo largo de todas las actividades que le agreguen
valor. Desde una perspectiva jurídica, no es suficiente con haber hecho un
descubrimiento, desarrollado una máquina más eficiente, un proceso más
rápido, un software más robusto o, en términos generales, un mejor producto. Es imprescindible registrar la autoría intelectual ante las autoridades correspondientes.
Existen algunas recomendaciones generales para el ingeniero involucrado en las cuestiones de propiedad intelectual, entre las que destacan:
1. Definir las líneas y las actividades de investigación conforme a la
estrategia de la empresa o centro de investigación público.
Ejercicios propuestos
19
2. Definir criterios de evaluación de proyectos y selección de proyectos de investigación conforme a las líneas estratégicas de la empresa y sus posibilidades de transferencia y comercialización.
3. Comunicar a los investigadores el estatus de la empresa o instituto
y sus prioridades de investigación.
4. Evaluar continuamente los proyectos, considerando la propiedad
intelectual que se podría obtener, clientes potenciales, tiempo de
vida de la innovación, países donde se solicitaran los títulos de propiedad intelectual, costo de los títulos y el tiempo de vigencia.
5. No llevar a cabo ningún convenio de comercialización sin antes
haber registrado la autoría intelectual del producto.
6. Definir ante el comercializador acciones de protección y vigilancia
de los derechos de autor.
Proteger el conocimiento generado no suele ser un proceso costoso en
cuanto a los trámites necesarios y puede representar una importante fuente de ingresos y, lo que es más importante, el respeto del esfuerzo y los
descubrimientos que se generan. En consecuencia, el ingeniero no debe
pasar inadvertido el aspecto de propiedad intelectual, sino por el contrario,
debe buscar constantemente oportunidades que garanticen la protección y
el aprovechamiento de sus descubrimientos.
EJERCICIOS PROPUESTOS
1. ¿Qué características considera que lo harían un buen ingeniero? Considere el perfi l descrito
del ingeniero.
2. ¿Qué es la ingeniería y a qué se dedica?
3. ¿Qué diferencia a un ingeniero del resto de las profesiones?
4. ¿En qué son diferentes un ingeniero de un científico? ¿Cómo se complementan?
5. Describa las funciones del ingeniero respecto de la producción.
6. ¿Cómo ha evolucionado el concepto de ingeniero desde sus inicios a la actualidad?
7. ¿Cuáles considera que fueron los tres desarrollos ingenieriles más importantes de la Edad
Media? Justifique su respuesta.
8. ¿Qué fue la Revolución Industrial y cuáles fueron sus mayores aportaciones?
9. Describa los tres principales logros de la ingeniería en el siglo xx que considere causaron el
mayor impacto social.
10. Dé un ejemplo en el cual se haya actuado conforme o en contra de la ética profesional del
ingeniero industrial y mencione por qué es necesario aplicar la ética profesional.
11. Investigue qué requisitos son necesarios para conseguir la propiedad intelectual de una
patente y qué organismo es el encargado de proporcionarla.
20
Capítulo 1
Introducción a la ingeniería
Referencias
American Institute of Chemical Engineers (AIChE).
http://www.aiche.org
American Society of Civil Engineers (ASCE). http:
//www.asce.org
American Society of Mechanical Engineers (ASME).
http://www.asme.org
Enciclopedia Británica (1998). Vol. 6, pp. 860-862.
Encyclopedia Britannica, Inc, Gran Bretaña.
Facultad de Ingeniería (2001). Ética e ingeniería.
Universidad Católica de la Santísima Concepción. Chile.
Fleddermann, C. B. (1999). Engineering Ethics.
Prentice Hall. Estados Unidos.
Grech, P. (2001). Introducción a la ingeniería.
Prentice Hall. Colombia.
Harris, C. E., Pritchard, M. S. y Rabins, M. J. (1995).
Engineering Ethics, Concepts and Cases.
Wadsworth Publishing Company. Estados
Unidos.
Hicks, P. (2001). Ingeniería industrial y administración, 2a. Ed. CECSA. México.
Institution of Chemical Engineers. Inglaterra. http:
//www.icheme.org
Mitcham, C. y García de la Huerta, M. (2001). La
ética en la profesión del ingeniero. Facultad de
Ciencias y Matemáticas de la Universidad de
Chile. Santiago de Chile.
National Academy of Engineering et al. (2000). Greatest Engineering Achievements of the 20th
Century. www.greatachievements.org
National Science Foundation. Engineering Ethics
Case Studies. http://lowery.tamu.edu/ethics/,
1999.
The Online Ethics Center for Engineering & Science.
http://onlineethics.org
The Institute of Electrical and Electronics Engineers.
http://www.ieee.XXX
UMAI, Asamblea General Ordinaria (1983). Código
de ética profesional del ingeniero mexicano.
México.
Wickert, J. (2004). An Introduction to Mechanical
Engineering. Thomson. Estados Unidos.
CAPÍTULO
2
El mundo de la ingeniería
AUTORES:
Sergio Romero Hernández
Omar Romero Hernández
David Muñoz Negrón
Con la colaboración de Rodrigo Nava Ramírez
2.1
2.2
2.3
2.4
2.5
Ingenieros más notables
Ramas de la ingeniería
El estudio y campo laboral de la ingeniería
Asociaciones de ingeniería
Últimos desarrollos ingenieriles en diferentes
sectores
2.6 Retos y nuevas fronteras
2.7 Conclusiones
Una vez establecido, en lo general, lo que es la ingeniería, es importante
conocer los alcances de la misma, desde el sector alimenticio hasta computación; la ingeniería es uno de los principales motores de cambio de la sociedad y va de la mano con el desarrollo del ser humano. Para explicar esto, se
presentarán algunos de los más importantes avances de la ingeniería, por
medio de un pequeño vistazo a los logros de los más notables ingenieros de
la historia. Una vez entendida la importancia que ésta ha tenido en el pasado, iremos al presente, donde observaremos a las distintas ramas de la ingeniería, las más importantes instituciones y asociaciones, así como los más
notables logros realizados en los últimos años. Finalmente se presentará qué
hay en el horizonte de la ingeniería, cuáles son sus retos y oportunidades.
2.1 Ingenieros más notables
Muchos de los cambios históricos de la humanidad se han dado a través del
desarrollo de avances tecnológicos o científicos que cambian la forma de
pensar y hacer las cosas de la sociedad, cambian las tradiciones y generan
progreso. Ahora, por la misma naturaleza de estos cambios, se puede observar que los principales agentes de cambio son precisamente los científicos e ingenieros. A continuación se describirán en orden cronológico algunos de los hombres más notables de la ingeniería, así como sus aportaciones
a la historia de la humanidad.
Arquímedes de Siracusa (287 a.C.-212 a.C.). Reconocido como el más
grande matemático de la Grecia Antigua. Grandes aportaciones a la geo-
22
Capítulo 2
El mundo de la ingeniería
metría, gracias al método exhaustivo para encontrar áreas y volúmenes.
Arquímedes también fue un notable ingeniero e inventor, su más grande
aportación viene principalmente con el Principio de Arquímedes sobre la
flotabilidad, mismo que lo llevó a la invención de un mecanismo para poder elevar agua, conocido como el tornillo de Arquímedes. Este principio
es de gran importancia, ya que es necesario para el diseño de barcos, submarinos o cualquier aerostato.
Herón de Alejandría (10 d.C.-70 d.C.). Matemático griego, considerado el
más grande experimentador de la Antigüedad y el mayor representante
científico de la época helenística. Dentro de sus aportaciones, la más importante fue la construcción de un artefacto impulsado por vapor conocido
como Eolípila, que es considerado como la primera máquina térmica de la
historia, así como el principal antecedente de la máquina de vapor, una de
las principales fuentes de poder mecánico en la actualidad.
Leonardo da Vinci (1452-1519). De las más grandes mentes creativas del
renacimiento italiano, da Vinci fue sumamente influyente como pintor y
escultor, pero también fue un inventor e ingeniero muy talentoso. En sus
cuadernos se pueden leer temas desde anatomía hasta óptica, geología y
f ísica. Su verdadero genio no era ni como artista ni como ingeniero, sino
una mezcla de los dos. Si todo su trabajo hubiera sido publicado de una
forma más comprensible, seguramente hubiera sido reconocido más como
un inventor que como un artista, habiendo “inventado” la bicicleta, el avión,
helicóptero y paracaídas cerca de unos 500 años antes de su época.
FIGURA 2.1 Estudios sobre el
agua de da Vinci en el Códice
Atlántico
http://www.interactivehank.
com/blog/wp-content/
uploads/2011/03/
Leonardo+da+Vinci+
Codex+ Water.jpg
2.1 Ingenieros más notables
23
James Watt (1736-1819). Inventor e ingeniero mecánico escocés; desde
su adolescencia supo que quería dedicarse a la fabricación de instrumentos. Trabajó en la Universidad de Glasgow, donde tenían un modelo a escala de la bomba Newcomen, que tenía un pequeño problema: después de
cierto número de golpes la máquina se detenía. Tratando de solucionarlo,
Watt descubrió que el principal problema radicaba en las grandes cantidades de vapor que utilizaba. Necesitaba una forma de condensar el vapor sin
necesidad de enfriar el cilindro. El desarrollo del motor de viga para solucionar esta problemática produjo grandes avances en las máquinas de vapor, así como una de las principales causas de la Revolución Industrial.
Nicolaus Otto (1832-1891). Vendedor alemán al que su fascinación por
los motores de gas, las máquinas de vapor, así como todos los avances de la
época, lo llevaron a dejar su trabajo y convertirse en un ingeniero autodidacta y, junto con Eugene Langen, buscaron mejorar el diseño existente de
la máquina de vapor, desarrollado por Étienne Lenoir. El resultado fue un
motor atmosférico que consumía menos de la mitad de gas que su predecesor, el cual constituye el primer motor de combustión interna en la historia,
que eficientemente quemaba el combustible en una cámara con un pistón.
El motor Otto es el que mueve casi todos los vehículos automotores que
hoy en día están en circulación.
Thomas Edison (1847-1931). El más prolífero inventor estadounidense
con 1093 patentes en una amplia gama de campos, como telecomunicaciones, electricidad, grabación de sonido, cinematograf ía, etc. Fue uno de los
FIGURA 2.2 Thomas A. Edison y la patente de la lámpara incandescente (foco eléctrico)
http://upload.wikimedia.org/wikipedia/commons/9/9d/Thomas_Edison2.jpg
http://www.ourdocuments.gov/document_data/document_images/doc_046_big.jpg
24
Capítulo 2
El mundo de la ingeniería
primeros inventores en aplicar el concepto de producción en masa y trabajo
en equipo a gran escala al proceso de invención, lo que lo acredita como el
creador de la primer institución científica de la historia. Las contribuciones
de Edison son muchas, pero dentro de las más importantes se puede mencionar el teléfono, la cámara cinematográfica y la bombilla de luz.
Nikola Tesla (1856-1943). Ingeniero mecánico, eléctrico e inventor serbio, siempre estuvo fascinado por la electricidad. Mientras trabajaba en
Budapest como ingeniero eléctrico se le ocurrió una solución al campo
magnético rotatorio, desarrollando así el motor de inducción. Ante la incapacidad de desarrollar y promover su invención en Europa, Tesla aceptó
una oferta de trabajo de Thomas Edison en Nueva York, donde estuvo trabajando en mejorar la línea de dinamos, generadores eléctricos de corriente directa de Edison. Fue aquí donde empezó la discusión entre corriente
directa y alterna, cortando así la relación entre ambos. Tesla adaptó brillantemente el principio del campo magnético rotatorio para la construcción
de motores de inducción con corriente alterna, así como el sistema polifásico para la generación, transmisión, distribución y uso de energía eléctrica, invenciones que actualmente están iluminando a casi todo el mundo.
Henry Ford (1863-1947). A diferencia de lo que muchos piensan, Henry
Ford, industrialista estadounidense, no inventó ni el automóvil ni la línea
FIGURA 2.3 Línea de ensamble en Ford Motor Co.
http://16034173.nhd.weebly.com/uploads/1/5/7/7/15774554/136946_orig.jpeg
2.2 Ramas de la ingeniería
25
de ensamble, pero fue el responsable de convertir al automóvil en la innovación que cambió el siglo xx a partir de un invento de utilidad desconocida. Con la creación de la Ford Motor Company, Ford logró adaptar el
concepto de línea de ensamble a la producción en serie de automóviles, con
costos muy bajos, pasándolo de un lujo a un bien accesible para todos.
Henry Ford tomó ideas y tecnologías existentes y las desarrolló para crear
una solución al problema de transporte, un perfecto ejemplo de la labor de
un ingeniero.
Wilbur Wright (1867-1912) y Orville Wright (1871-1948). Encargados de
la invención del primer aeroplano funcional de la historia, los hermanos
Wright no tenían ningún conocimiento científico, sus conocimientos de
mecánica los adquirieron gracias a que reparaban sus propias bicicletas,
y después instalaron un taller. Tras leer en las noticias sobre la muerte de
un piloto de planeador, los hermanos Wright tomaron un gran interés en
volar, lo que los motivó a adentrarse en todo lo relativo a aeronáutica, descubriendo que el problema era que el piloto no tenía control sobre el planeador. Así, con la construcción de su aeroplano lograron el primer vuelo
humano controlado, sostenido y equilibrado de toda la historia, logrando la
fama mundial.
Alan Turing (1912-1954). Matemático inglés y pionero de la informática.
Desarrolló el Entscheidungsproblem, que se traduce como problema de
decisión y fue un reto en lógica simbólica para encontrar un algoritmo general que decidiera si una fórmula del cálculo de primer orden es un teorema. En 1936, de manera independiente, él y Alonzo Church demostraron
que es imposible escribir tal algoritmo. Como consecuencia, es también
imposible decidir con un algoritmo si ciertas frases concretas de la aritmética son verdaderas o falsas. Esto es la base de la teoría moderna de la informática y que pone los cimientos de lo que es tanto computación como algoritmo. También fue un factor importante para Inglaterra y los aliados
durante la Segunda Guerra Mundial, gracias a la decodificación de los
mensajes alemanes. Una vez finalizada la guerra, la mente de Turing se centró en el desarrollo de una máquina que pudiera procesar información lógicamente, llegando a diseñar así la primera computadora digital.
2.2 Ramas de la ingeniería
Como vimos, a través del tiempo la ingeniería ha ido evolucionando. Los
primeros ingenieros sabían de todo un poco, eran parte científicos, parte
inventores, parte técnicos. Sin embargo, poco a poco surgió la necesidad de
especialistas en temas específicos. Así, lo que inicialmente comprendía dos
ramas en ingeniería: la civil y la militar, pasó a tener más ramas de especialización. Actualmente la ingeniería cuenta con más de 70 especialidades,
que van desde lo más específico, como ingeniería acústica, hasta algo más
general, como la ingeniería mecánica. Entre ellas encontramos la ingeniería
26
Capítulo 2
El mundo de la ingeniería
civil, ingeniería sanitaria, ingeniería ambiental, ingeniería estructural, ingeniería hidráulica, ingeniería de minas, ingeniería del petróleo, ingeniería
del transporte, ingeniería eléctrica, ingeniería electrónica, ingeniería en
computación, ingeniería de telecomunicaciones, ingeniería en comunicaciones y electrónica, ingeniería cibernética, ingeniería electromecánica o
mecánico electricista, ingeniería informática, ingeniería en sistemas de información, ingeniería en telemática, ingeniería mecatrónica, ingeniería de
control, ingeniería automática, ingeniería en energía eléctrica y en sistemas
electrónicos o eléctrica-electrónica, ingeniería en sistemas computacionales, ingeniería de software, ingeniería en tecnologías de información
y comunicaciones, ingeniería en tecnologías computacionales, ingeniería
en tecnologías electrónicas, ingeniería en sistemas digitales y robótica, ingeniería biónica, ingeniería química, ingeniería de materiales, ingeniería de
alimentos, bioingeniería, ingeniería bioquímica, ingeniería biológica, ingeniería genética, ingeniería biomédica, ingeniería médica, ingeniería agroforestal, ingeniería forestal, ingeniería agrícola, ingeniería en biosistemas, ingeniería agronómica, ingeniería industrial, ingeniería financiera, ingeniería
comercial, ingeniería en diseño industrial y desarrollo de producto, ingeniería logística, ingeniería en gestión empresarial, ingeniería administrativa,
ingeniería mecánica, ingeniería electromecánica, ingeniería naval, ingeniería aeroespacial, ingeniería automotriz, ingeniería aeronáutica, ingeniería
acústica, ingeniería en armamento, ingeniería en maquinarias de asedio,
ingeniería en politécnica militar, ingeniería balística.
Aquí se presentan algunas de las más importantes.
Ingeniería química
Una gran rama de la ingeniería, es la ingeniería química, la cual se estableció en el siglo xix, con la proliferación de procesos industriales que comprenden reacciones químicas en metalurgia, alimentos, textiles, entre
otras. Para 1880, el uso de químicos en manufacturas creó una nueva industria, cuya función fue la producción en masa de químicos. El diseño y
operación de las plantas de esta industria se convirtió en la función de la
nueva ingeniería química.
Algunos ingenieros químicos trabajan en fábricas, mientras otros lo
hacen en laboratorios. Aunque siempre podemos encontrarlos en universidades, empresas consultoras, compañías ingenieriles, despachos jurídicos,
oficinas de gobierno y prácticamente en cualquier empresa.
El ingeniero químico aplica principios químicos, f ísicos y matemáticos
para resolver problemas y proporcionar compuestos de todo tipo, desde
productos farmacéuticos hasta combustibles, pasando por productos químicos industriales. Cambios o reacciones químicas pueden ser usados para
producir todo tipo de productos útiles. Los ingenieros químicos usan sus
conocimientos para descubrir o manufacturar mejores plásticos, combustibles, pinturas, fibras, medicinas, fertilizantes, semiconductores, papel y
2.2 Ramas de la ingeniería
27
FIGURA 2.4 Ingeniero químico
http://chemicaleng.njit.edu/images/Dr._Xia-Ping_Dai.jpg
muchos otros tipos de químicos por medio de reacciones químicas o purificaciones.
Los ingenieros químicos también juegan un papel importante protegiendo el medio ambiente, creando tecnologías más limpias, calculando
impactos ambientales y estudiando el impacto de químicos sobre el medio
ambiente. Algunas áreas presentes y futuras de la ingeniería química incluyen la industria de semiconductores, la gestión medioambiental, el procesamiento de fuentes de energía modernas y tradicionales, desarrollo de
pinturas, prevención de la corrosión y la bioingeniería, entre otras.
Ingeniería civil
La ingeniería civil es la más antigua de todas las ingenierías. Las personas
que ejercen esta profesión pueden tener ciertas funciones como: interventores, constructores y calculistas. Asimismo, existen varias actividades especializadas dentro de esta rama:
1. Construcción: construye (lo que los ingenieros y los arquitectos diseñan), calcula y planea los proyectos completos, haciendo una
evaluación de costos, materiales y personal necesario.
2. Infraestructura: diseña estructuras, como carreteras, puentes, túneles, presas, etc.; calcula fuerzas y momentos, decidiendo los materiales necesarios para soportar y resistir lo especificado en el diseño.
28
Capítulo 2
El mundo de la ingeniería
3. Geodesia: haciendo uso de herramientas como la aerofotogrametría y fotografías por satélite, localiza el área para realizar proyectos de ingeniería civil.
4. Geotecnia: analiza los terrenos sobre los cuales se realizarán construcciones, observando el comportamiento de la tierra, rocas y
suelo. Suelen ayudar en el diseño de algunas construcciones.
5. Hidráulica: decide la localización de fuentes de agua potable, así
como la evaluación de las ya existentes. Diseña sistemas de riego y
desarrolla instalaciones fluviales. Ayuda en la construcción de estructuras portuarias y de defensa contra inundaciones.
6. Sanitaria: evalúa la contaminación ambiental, asegurándose que
la calidad de agua potable sea la deseada; diseña sistemas de tuberías, alcantarillado, plantas de tratamiento y acueductos.
7. Transporte: diseña sistemas de transporte, como gasoductos y
oleoductos, así como ciertas vías de comunicación.
El ingeniero civil se responsabiliza de la planificación, diseño y construcción de la infraestructura. Esto incluye las redes de transporte, la gestión
del agua, la protección del medio ambiente y el urbanismo. Los resultados
más visibles son las grandes estructuras, como autopistas, puentes y presas,
entre otras. En estos casos se combinan especialidades tales como la ingeniería de estructuras, la ingeniería geotécnica y la arquitectura.
Otro campo de gran importancia es el diseño y operación de plantas
para el tratamiento del agua, no sólo domésticas, sino también de desechos
industriales. Este campo se ha ampliado en la actualidad a instalaciones de
depuración de todo tipo de residuos (ingeniería del medio ambiente).
La ingeniería de sistemas de transporte se ocupa de la construcción de
autopistas, ferrocarriles y otros sistemas de transporte rápido, la construcción y gestión de puertos, aeropuertos, vías acuáticas, etc. Dentro de la ingeniería de obras civiles se incluye una especialidad dedicada al diseño de
sistemas de transporte de agua y a la gestión de recursos hidráulicos.
Por último, dentro de la ingeniería civil, aparte de los ingenieros de
caminos, canales y puertos, intervienen también los ingenieros civiles mecánicos, sobre todo en los aspectos de construcción industrial y de cálculo
de estructuras.
Ingeniería eléctrica
La ingeniería eléctrica se ocupa de la aplicación de las leyes f ísicas manifestadas en la electricidad, magnetismo y luz para desarrollar productos y servicios que ayuden a la humanidad. El ingeniero eléctrico diseña redes de
distribución, circuitos eléctricos, control de procesos y sistemas de tracción, principalmente. Se requiere de la pasión por la f ísica, la electricidad y,
por supuesto, las matemáticas. Se puede decir que el término ingeniería
eléctrica es muy amplio, incluyendo actividades tales como la generación y
transmisión de energía, los motores eléctricos, los sistemas eléctricos para
2.2 Ramas de la ingeniería
29
FIGURA 2.5 Planta eléctrica
http://upload.wikimedia.org/wikipedia/commons/e/e0/Power_plant.jpg
todo tipo de edificios e instalaciones, etc. Tiene mucha relación con ella la
ingeniería electrónica que, aunque por sí misma constituye una especialización distinta, tradicionalmente está ligada a la eléctrica y a las telecomunicaciones en sus campos de potencia y microelectrónica, respectivamente.
Dentro de la ingeniería eléctrica aparecen algunas especialidades que
hoy en día ya podemos identificar como otras ramas de la ingeniería, como:
automatización, computación, comunicaciones, electrónica, instrumentación y potencia.
Ingeniería industrial
La ingeniería industrial está relacionada con el diseño, instalación y mejoramiento operacional de sistemas, integrados por recursos humanos, materiales, maquinaria y equipos, materia prima y financieros, entre otros. Utiliza los conocimientos de las matemáticas, f ísica, ciencias de la ingeniería y
ciencias sociales, aunados a los principios y métodos de análisis y diseño
ingenieriles, para especificar, predecir y evaluar los resultados obtenidos de
tales sistemas.
La ingeniería industrial es una disciplina dedicada al diseño, la innovación, la mejora, la instalación y la administración de sistemas organizados
para la producción eficiente y efectiva de bienes y servicios.
El ámbito de esta disciplina se ha expandido recientemente gracias a su
aplicación en la mejora de la prestación de servicios de alto valor agregado,
30
Capítulo 2
El mundo de la ingeniería
como la distribución, transporte y suministro de mercancías (logística), los
servicios de comunicación e información y los servicios de seguridad y médicos.
Su trabajo verifica y cumple factibilidades políticas, sociales, legales,
técnicas, económicas, financieras, ecológicas, ambientales y de seguridad
de mano de obra, instalaciones y materiales. Desempeña funciones que,
aparentemente, no tienen relación con su habilidad específica, entre otras,
el análisis financiero debido a su conocimiento de las técnicas específicas
de este campo y a su formación relacionada con la producción y los procesos.
La ingeniería industrial es un campo interdisciplinario con aplicaciones industriales, de servicios, comerciales y de gestión. Según el Instituto
Americano de Ingeniería de Organización (AIIE), el ingeniero de organización se ocupa “del diseño, mejora e instalación de sistemas integrados de
personas, materiales y energía”. Algunos campos de la ingeniería de organización son la planificación y gestión de la producción, la ingeniería y el diseño de plantas industriales, la gestión de la calidad, el establecimiento de
objetivos, etc. Es evidente lo cercana que está la ingeniería de la organización a la gestión.
Ingeniería mecánica
El campo de la ingeniería mecánica se ocupa de los componentes de las
maquinarias, las propiedades de las fuerzas, materiales, energía y movimiento, así como de la aplicación de esos elementos para la creación de
nuevas máquinas y productos que beneficien a la sociedad y vida de las
personas.
Los ingenieros mecánicos investigan, desarrollan, diseñan, manufacturan y prueban herramientas, motores, máquinas y otros objetos mecánicos.
También investigan y trabajan sobre máquinas productoras de energía, generadores de electricidad, motores, turbinas de gas y vapor, así como en
motores para jets y cohetes. A su vez, desarrollan máquinas de uso de energía, como refrigeración y equipo de aire acondicionado, robots usados en la
manufactura, máquinas de control numérico, herramientas mecánicas y
equipo de producción industrial.
El ingeniero mecánico está capacitado para construir, proyectar, diseñar, reparar, mantener y operar distintos tipos de máquinas, instalaciones
industriales, procesos automatizados y sistemas de control industrial.
La ingeniería mecánica es quizá la más amplia de todas las disciplinas
ingenieriles en cuanto a su gama de actividades y funciones. Se ocupa del
diseño, fabricación y operación de componentes, aparatos o sistemas, como la tecnología láser, estructuras móviles, motores, materiales y procesos
de fabricación, desde componentes microscópicas hasta engranajes gigantes, además de calefacción, acondicionamiento de aire y ventilación
(HVAC), aplicaciones biomédicas, industria del automóvil, diseño asistido
2.2 Ramas de la ingeniería
31
FIGURA 2.6 Motor V8
http://www.seriouswheels.com/pics-2006/2006-Chevrolet-Corvette-Z06-LS7-1280x960.jpg
por computadora (CAD), automatización, robótica, mantenimiento, fiabilidad y muchos más. Una aplicación de reciente auge son los sistemas mecánicos microelectrónicos (MEMS), por sus usos en prótesis inteligentes y
sistemas robóticos.
Otras ingenierías
Por muchos años las ramas de ingeniería se agruparon en civil, química,
eléctrica, mecánica e industrial. La figura 2.6 muestra que alrededor de dos
terceras partes del total de ingenieros en el mundo corresponde a alguna de
estas cinco ramas. Sin embargo, el paso del tiempo y la necesidad de contar
con conocimientos más especializados ha provocado la creación de nuevas
ramas de ingeniería, las cuales se suman a disciplinas clásicas en el mundo
ingenieril. Entre estas ramas se encuentran: computación, de sistemas, aeroespacial, de alimentos, ambiental, informática, naval, nuclear, metalúrgica, petróleos, genética, telemática, por citar algunas. Una breve descripción de algunas de estas ramas se proporciona a continuación.
Ingeniería en computación. Es el diseño, implementación, construcción
y mantenimiento de computadoras y equipos controlados por computadoras para el beneficio de la humanidad. Se estudia el diseño de hardware
(estructura) digital y sistemas de software (programación). Dentro de esta
rama la programación está enfocada en artefactos digitales y su interface
con los usuarios y otros artefactos. Una de las áreas más grandes dentro de
esta ingeniería actualmente es la de sistemas integrados, categoría donde se
encuentran los smartphones, cámaras digitales, etcétera.
32
Capítulo 2
El mundo de la ingeniería
Ingeniería de sistemas. Esta especialidad ha nacido porque la mayoría
de los sistemas presentan elementos comunes que se pueden estudiar bajo
un mismo marco conceptual. De algún modo, se puede esperar que un sistema se comporte de acuerdo con determinados parámetros (por ejemplo,
costo, fiabilidad, rapidez, congestión o mantenimiento). El ingeniero de sistemas se encarga de analizar un sistema real y comprobar si se comporta
según fue diseñado. Las técnicas usadas habitualmente son la estadística y
probabilidad, teoría de control, modelado de sistemas y programación.
Ingeniería aeroespacial. Los ingenieros aeroespaciales diseñan, analizan, modelan, simulan y prueban aviones, naves espaciales, satélites, misiles y cohetes. La tecnología aeroespacial ha permitido el desarrollo de otras
aplicaciones en objetos que se movilizan dentro de gases y líquidos. Por
ejemplo, pelotas de golf, trenes de alta velocidad y automóviles de competencia, entre otras. Generalmente se encuentra a los ingenieros aeroespaciales involucrados en proyectos de aerodinámica, propulsión, navegación
y pruebas de vuelo.
Ingeniería en alimentos. Consiste en la aplicación de principios ingenieriles al almacenamiento, producción y distribución de alimentos y bio-productos. Para esta ingeniería se requieren conocimientos de química y ciencia de los alimentos. Dentro de las contribuciones de un ingeniero en
FIGURA 2.7 Ingeniería aeroespacial
http://www.cguru.info/images/aeronautical.jpg
2.2 Ramas de la ingeniería
33
alimentos está principalmente el diseño de sistemas o métodos de empaquetado para facilitar el almacenamiento y transporte de alimentos, así como la regulación y protección de la salud pública por medio del estudio de
los componentes de ciertos alimentos.
Ingeniería ambiental. Se ocupa del estudio de las formas para proteger
el ambiente. Aquí se mezclan los principios de ingeniería con las ciencias
del suelo, biología y química. Estudia el efecto de los avances tecnológicos
en el ambiente. Cubre áreas como la contaminación del aire y el agua, suministros de agua, manejo de aguas negras, desperdicios peligrosos, tierras, protección de la radiación y salud pública.
Bioingeniería o ingeniería biomédica. Aplica procedimientos de diseño y
de principios de ingeniería a la biología y medicina, con el propósito de
mejorar la calidad y efectividad del cuidado y salud del paciente, como el
desarrollo de nuevos y mejores sistemas de terapia o rehabilitación. Dentro
de sus especialidades se encuentra la ingeniería bioquímica, biomecánica y
bioelectricidad. Un ingeniero biomédico generalmente trabaja en manufactura, hospitales o investigación.
Ingeniería genética. Ésta se refiere al conjunto de tecnologías utilizadas
para cambiar la estructura genética de las células y poder mover genes a
través de especies para producir nuevos organismos. Se les dan nuevas
combinaciones genéticas y, por lo tanto, características que dif ícilmente se
podrían encontrar en la naturaleza. Las opciones son vastas, dada la gran
cantidad de animales y plantas que existen, pero aun así se debe ser cuidadoso con las manipulaciones, ya que los efectos no
siempre serán positivos.
Ingeniería mecatrónica. Las principales actividades de un ingeniero en mecatrónica son la automatización industrial, la construcción de dispositivos y
máquinas inteligentes, así como la innovación en el diseño vanguardista. Todo lo anterior se apoya en la integración de sistemas mecatrónicos, por lo que su estudio
abarca materias como diseño de mecanismos robóticos, manufactura integrada por computadora, inteligencia artificial, automatización y control de procesos.
Ingeniería de materiales. Aplica las propiedades de la materia
dentro de las áreas de ciencia e ingeniería. Específicamente investiga la relación entre la estructura de los materiales a una escala molecular o atómica y sus propiedades macroscópicas. Es indispensable un conocimiento de f ísica aplicada y química. Esta rama de la
ingeniería ha adquirido un mayor auge gracias al enfoque que se
le ha dado tanto a la nanotecnología como a la nanociencia en los
últimos años.
FIGURA 2.8 Robot humanoide
Ingeniería nuclear. Se ocupa de la ciencia detrás de los procesos
http://jasmedia2011.files.wordpress.
nucleares y se aplica para el desarrollo de varias tecnologías. Al pensar
com/2011/08/humanoide.jpg
en energía nuclear la mayoría de las personas piensan en la bomba
34
Capítulo 2
El mundo de la ingeniería
atómica, la verdad es que los procesos nucleares son fundamentales dentro
de la medicina, tanto para diagnóstico como para el tratamiento de ciertas
enfermedades. La mayor aplicación comercial actualmente es el uso de fisión nuclear para la producción de electricidad, que se espera que a largo
plazo se vuelva cada vez más importante.
Ingeniería petrolera. Se encarga de diseñar y desarrollar los métodos
para la extracción de gas y petróleo de los depósitos debajo de la superficie
de la tierra. La producción económica y ambientalmente segura de petróleo requiere de la aplicación creativa de muchas habilidades, como matemáticas, f ísica, geología, química, entre otras. Debido a la gran demanda de
combustibles fósiles que el mundo genera, esta ingeniería es vital y genera
una altísima demanda en el mercado laboral.
Ingeniería agrícola. Aquí se aplican la ingeniería y tecnología a la producción y procesamiento agrícola. Se combinan las disciplinas de zoología
y botánica, así como las ingenierías mecánica, civil y eléctrica. El ingeniero
agrícola es capaz de diseñar la maquinaria, equipo y estructuras utilizadas
en la práctica agrícola, la producción y cuidado de animales y sistemas de
control ambiental de enfriado o ventilación, entre otras actividades.
No hay que olvidar que el campo de acción de la ingeniería es tan vasto
y cambiante, que de ninguna forma se restringe a las disciplinas anteriormente presentadas; es más, no nos debería sorprender que en pocos años
aparezcan más disciplinas ingenieriles de especialización.
2.3 El estudio y campo laboral de la ingeniería
El campo de la ingeniería es muy dinámico debido al gran número de especializaciones o ramas con las que cuenta actualmente. Las opciones de
dónde estudiar ingeniería o qué rama de la ingeniería escoger es demasiado
amplia. A continuación mostraremos el top 10 de 2013 de universidades
donde puede estudiarse algún curso de ingeniería en el mundo, según el
indicador de The Times Higher Education:
1. California Institute of Technology (Caltech)
— Pasadena, CA. Estados Unidos
— Cursos: ingenierías química, ambiental, civil, eléctrica, médica, materiales y mecánica
— Tasa de aceptación: 13%
2. Princeton University
— Princeton, NJ. Estados Unidos
— Cursos: ingenierías civil, ambiental, química, en computación,
eléctrica, mecánica, aeroespacial, financiera y de operaciones.
— Tasa de aceptación: 8.5%
3. Massachussets Institute of Technology (MIT)
— Cambridge, MA. Estados Unidos
2.3 El estudio y campo laboral de la ingeniería
35
FIGURA 2.9 Caltech, MIT, Princeton, U. of California
http://www.thesagamotorhotel.com/caltech-logo.png
http://cloudtimes.org/wp-content/uploads/2013/03/mit-logo.jpg
https://web.math.princeton.edu/~kfelker/images/Princeton-Logo.jpg
http://www.geteducated.com/images/articles/uc_color_logo.jpg
— Cursos: ingenierías aeronáutica, biológica, química, civil, ambiental, de sistemas, de materiales, mecánica y nuclear.
— Tasa de aceptación: 8.9%
4. University of California, Berkeley
— Berkeley, CA. Estados Unidos
— Cursos: ingenierías química, de materiales, nuclear, biológica,
civil, eléctrica, física, estadística, industrial, mecánica y en
computación.
— Tasa de aceptación: 25.6%
5. University of Cambridge
— Cambridge, Reino Unido
— Cursos: ingenierías química, en computación, en manufactura
y materiales.
— Tasa de aceptación: 21.9%
6. Stanford University
— Stanford, CA. Estados Unidos
— Cursos: ingenierías aeronáutica, biológica, química, civil, ambiental, eléctrica, energética, de materiales, mecánica y de
operaciones.
— Tasa de aceptación: 6.6%
36
Capítulo 2
El mundo de la ingeniería
7. University of California, Los Ángeles
— Los Ángeles, CA. Estados Unidos
— Cursos: ingenierías aeroespacial, biológica, química, civil, en
computación, eléctrica, de materiales y mecánica.
— Tasa de aceptación: 22%
8. Eidgenössische Technische Hochschule Zürich
— Zúrich, Suiza
— Cursos: ingenierías civil, ambiental, geomática, mecánica, de
procesos, nuclear, eléctrica, biomédica, de computación, en
materiales, química y en alimentos.
— Tasa de aceptación: no es selectiva en sus procesos de admisión, siempre que se cumplan los requisitos establecidos.
9. Georgia Institute of Technology (Georgia Tech)
— Atlanta, GA. Estados Unidos
— Cursos: ingenierías aeroespacial, biomédica, química, biomolecular, civil, en computación, eléctrica, ambiental, industrial,
de materiales, mecánica y nuclear.
— Tasa de aceptación: 52%
10. Imperial College London
— Londres, Reino Unido
— Cursos: ingenierías aeronáutica, biomédica, química, civil, en
computación, eléctrica, electrónica, de materiales, mecánica,
nuclear y petrolera.
— Tasa de aceptación: 15.3%
Respecto al campo laboral de la población de ingenieros, no se tienen datos
precisos para Latinoamérica, por lo que se presentarán y analizarán los
datos de Estados Unidos, donde, a pesar de la gran importancia de la ingeniería, ésta sigue siendo un gran campo a explotar, constituyendo sólo 1.4%
del total de la gente empleada en ese país. Si observamos la tabla 2.1, vemos
cómo el número total de ingenieros en general se mantiene constante, pero
con un ligero aumento en este último año. También es posible observar
cómo un poco más de la mitad de los ingenieros se encuentran, ya sea en
ingeniería civil, mecánica, industrial o eléctrica, dejando un amplio campo
dentro de las otras para su explotación. La participación de cada ingeniería
con respecto al total de ingenieros se puede observar mejor en la figura 2.10.
2.4 Asociaciones de ingeniería
El mundo de la ingeniería comprende más que sólo las especialidades o
ramas y los lugares donde se pueden estudiar. Existe también un sinf ín de
asociaciones, institutos o colegios de ingenieros encargados de la difusión,
alcance y desarrollo de las diferentes ramas de la ingeniería; estas instituciones van desde lo más general a lo más específico. A continuación se
37
2.4 Asociaciones de ingeniería
25.00%
Civil
Mecánica
20.00%
Industrial
Eléctrica
Electrónica
Computación
15.00%
Aeroespacial
Ambiental
Química
Higiene y seguridad
10.00%
Materiales
Petróleo
Nuclear
Biomédica
5.00%
Marinos
Minas y
geología
0.00%
2007
2008
2009
2010
2011
2012
FIGURA 2.10 Participación de cada una de las ingenierías en el mercado laboral
presentan algunas de las más importantes; se recomienda visitar su sitio
web para descubrir un poco más de ellas.
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
American Academy of Environmental Engineers
Asociación Interamericana de Ingeniería Sanitaria y Ambiental
American Institute of Aeronautics and Astronautics
American Institute of Chemical Engineers
Instituto Mexicano de Ingenieros Químicos, A.C.
The American Society of Agricultural and Biological Engineers
American Society of Civil Engineers
American Nuclear Society
American Society for Engineering Education
American Society of Mechanical Engineers
Biomedical Engineering Society
Institute of Electrical and Electronics Engineers
Institute of Industrial Engineers
National Academy of Engineering
National Science Foundation
National Society of Professional Engineers
Society of Automotive Engineers
Society of Manufacturing Engineers
National Council of Examiners for Engineering
38
Capítulo 2
El mundo de la ingeniería
TABLA 2.1 Participación de ingenieros empleados (según ramas) en Estados Unidos: 2007-2012
2007
2008
2009
2010
2011
2012
1949
1967
1891
1816
1572.1
1982
Civil
19.60%
17.59%
17.87%
17.51%
17.71%
18.06%
Mecánica
15.19%
16.17%
15.97%
16.13%
15.18%
14.53%
Industrial
6.82%
7.52%
8.14%
7.82%
13.66%
9.43%
Eléctrica
9.13%
9.20%
8.88%
8.98%
10.04%
8.68%
Electrónica
8.67%
8.59%
7.72%
7.93%
9.14%
8.27%
Computación
4.05%
3.51%
3.23%
3.85%
4.75%
4.59%
Aeroespacial
6.31%
6.96%
7.19%
6.94%
4.55%
6.00%
Ambiental
1.85%
1.88%
1.64%
1.93%
3.45%
2.17%
Química
3.85%
3.25%
3.44%
3.47%
2.02%
3.58%
Higiene y seguridad
1.44%
1.47%
1.69%
0.94%
1.63%
0.50%
Materiales
1.95%
2.03%
1.75%
1.98%
1.55%
2.02%
Petróleo
1.08%
0.92%
1.37%
1.10%
1.39%
1.92%
Nuclear
0.51%
0.46%
0.58%
0.66%
1.07%
0.55%
Biomédica
0.62%
0.46%
0.85%
0.94%
1.02%
0.50%
Marinos
0.56%
0.86%
0.63%
0.61%
0.54%
0.40%
Minas y geología
0.26%
0.51%
0.58%
0.77%
0.45%
0.45%
Agrícolas
0.21%
0.15%
0.16%
0.06%
0.17%
0.20%
17.91%
18.45%
18.30%
18.39%
11.65%
18.11%
Total (miles)
Otras
Fuente: US Bureau of Labor Statistics.
•
•
•
•
Accreditation Board for Engineering and Technology
European Federation of National Engineering Associations
International Council of Systems Engineering
The Royal Academy of Engineering
Es importante mencionar que existen además asociaciones nacionales especializadas, en varios países de América Latina son denominadas como
colegios; por ejemplo, el Colegio de Ingenieros Mecánicos y Electricistas
en México.
2.5 Últimos desarrollos ingenieriles
en diferentes sectores
El mundo es un entorno en constante cambio y progreso, por ello la innovación juega un papel importante en llevar a cabo este progreso. Ya vimos
lo que la ingeniería ha logrado hasta el día de hoy, siendo uno de los princi-
2.5 Últimos desarrollos ingenieriles en diferentes sectores
39
pales motores del desarrollo humano a lo largo de la historia, pero la ingeniería no ha parado de innovar y seguir creando o mejorando nuevas formas o sistemas diseñados para facilitar la vida del ser humano y crear un
progreso en la humanidad. A continuación se hablará de las últimas innovaciones dentro de varios campos:
Industria farmacéutica
La industria farmacéutica se ocupa, principalmente, de la fabricación, preparación y comercialización de productos químicos medicinales para la
prevención y tratamiento de enfermedades. Siendo un sector tan vasto,
existen muchos ámbitos a los cuales se puede dirigir la innovación; sin embargo, resaltan dos campos que se han vuelto muy populares en los últimos
tiempos: la nanotecnología y la biotecnología.
La nanotecnología recientemente ha sido utilizada para detectar cáncer en las personas, debido a que los métodos que existen hoy en día resultan ser muy lentos y poco específicos, razón por la cual, cuando un paciente sufre de esta enfermedad no es posible diagnosticarla hasta que el cáncer
ha progresado lo suficiente para esparcirse y deteriorar el tejido sano. La
propuesta es utilizar nanosensores diseñados con cables de silicón que permitan identificar proteínas en la sangre asociadas con el cáncer, haciendo
su implementación relativamente sencilla, para que éstos puedan ser colocados en hospitales o instituciones de salud que posibiliten diagnosticar al
paciente en una fase temprana del padecimiento.
Dentro del campo de la biotecnología se han creado medicamentos a
partir de sistemas vivos o células, que se utilizan para tratamientos altamente específicos, precisos, predecibles e, idealmente, que conlleven me-
FIGURA 2.11
http://knovelblogs.com/wp-content/uploads/2012/07/2030-medical-advances-cure.jpg
40
Capítulo 2
El mundo de la ingeniería
nos efectos secundarios para las personas. En ellos no participa síntesis
química y sus componentes moleculares tienden a ser mayores en tamaño
y número, así como también tienen mayor amplitud de actividad y potencia
para generar respuestas inmunológicas. En general, los medicamentos biotecnológicos tienen una estructura heterogénea y compleja de caracterizar,
y siempre deben contar con estudios clínicos y filtros de control de calidad y
seguridad que garanticen su confiabilidad.
Industria química
La industria química se ocupa de la extracción y procesamiento de las materias primas, tanto naturales como sintéticas, así como de su transformación en otras sustancias con características diferentes de las que tenían
originalmente. Su objetivo principal es elaborar un producto de buena calidad con el costo más bajo y tratando de ocasionar el menor daño posible
al ambiente. Dos de las innovaciones más importantes de la actualidad son
el poliéster termoplástico y el sistema térmico maestro.
El poliéster termoplástico Ultradur® fue desarrollado por BASF y es un
material basado en polibutileno tereftalato (PBT), resistente a disolventes y
que tolera altas temperaturas. Tiene alta resistencia a la rotura, un gran
aguante al desgaste químico y es de muy fácil moldeo. Aunque a simple
vista esta innovación no es tan relevante, su aplicación en la fabricación de
motores y autopartes ha logrado que los autos con los que nos transportamos día a día sean más eficientes en su consumo de gasolina. Gracias a este
material se pueden hacer partes que antes se hacían de metal, logrando que
los motores sean más livianos y de menor dimensión.
El sistema térmico maestro Stucco® fue desarrollado por BASF y es un
sistema que permite reducir la temperatura de un edificio hasta en 7°C sin
usar aire acondicionado. Está elaborado con base en nanotecnología inteligente que permite disipar el calor. Es decir, está diseñado para controlar la
temperatura interior mediante la incorporación de esta nanotecnología
que absorbe y libera energía, de acuerdo con las variaciones térmicas de
una habitación.
Con esta innovación los hogares disminuyen dramáticamente su consumo de energía, tanto en invierno como en verano. De esta manera es posible
ahorrar mucho dinero y, al mismo tiempo, cuidar el ambiente. Es considerada una gran innovación dentro de la química, ya que con ella es posible reducir de manera considerable y constante las emisiones de CO2, en especial
en los lugares donde más se consume energía, como las playas y los desiertos, sin olvidar los lugares en los cuales el invierno es muy fuerte.
Sector salud
Dentro de este sector existen dos procesos nuevos en desarrollo que podrían cambiar el mundo de la medicina: la inyección sin agujas y el Sistema
Quirúrgico Da Vinci.
2.5 Últimos desarrollos ingenieriles en diferentes sectores
41
El sistema que permite inyectar una gran variedad de fármacos a través de la piel sin necesidad de emplear agujas fue desarrollado por un grupo
de investigadores del Massachussets Institute of Technology (MIT). El mecanismo se basa en las fuerzas de Lorentz, que son aquellas que se ejercen
por el campo magnético al recibir una partícula cargada o una corriente
eléctrica. Consta de un imán muy pequeño y potente rodeado por una bobina de alambre unida al émbolo de una cápsula que contiene los fármacos
a inyectar. Cuando se aplica una corriente eléctrica, ésta interacciona con
el campo magnético y produce una fuerza tal que empuja el pistón, permitiendo que la cápsula se abra e inyecte su contenido a gran velocidad a
través de la piel.
El Sistema Quirúrgico Da Vinci es un sistema desarrollado por Intuitive Surgical, que consiste en un robot quirúrgico diseñado para posibilitar
cirugías complejas con invasiones mínimas al cuerpo humano, se utiliza
especialmente para operaciones de próstata, reparaciones de válvulas cardiacas y procedimientos quirúrgicos ginecológicos. Es una tecnología sanitaria que brinda a los cirujanos una alternativa tanto para la cirugía abierta
tradicional como para la laparoscopía convencional, poniendo las manos
del cirujano en los controles de una plataforma robótica de última generación; permite a los cirujanos realizar aun las intervenciones más complejas
y delicadas mediante incisiones muy pequeñas con una precisión sin precedentes.
Industria alimenticia
Dentro de la industria alimenticia, por parte de la ingeniería no existen
mayores innovaciones, ya que los procesos de empaquetado o conservación de la comida se han mantenido muy similares en los últimos años; aun
así, existe una gran innovación dentro del campo científico, que posiblemente revolucione toda la industria y la base de la alimentación de la sociedad: la carne cultivada en un laboratorio.
Ésta fue desarrollada por un grupo de científicos en los Países Bajos,
que básicamente tomaron las células de una vaca, las cultivaron hasta que
se formaran músculos y después los molieron, dando así origen a la primer
hamburguesa cultivada, que fue probada en Londres por un grupo de expertos que afirman que el sabor es muy similar al de la carne de res. Con
este descubrimiento, si se implementa a gran escala y el costo de producción es reducido, será posible cubrir la demanda de comida mundial sin
causar un gran impacto ambiental. Es trabajo del ingeniero, en parte, tratar
de implementar esta nueva tecnología para la mejora de la calidad de vida.
Innovaciones en transporte
El transporte es una de las actividades fundamentales de una sociedad, ya
que implica el traslado de un punto a otro de bienes o personas, lo que re-
42
Capítulo 2
El mundo de la ingeniería
FIGURA 2.12 Carne de res cultivada
http://www.designboom.com/wp-content/uploads/2013/08/cultured-beef-first-lab-grown-burgerdesignboom-01.jpg
quiere una innovación constante dentro de este sector. Una de las mayores
innovaciones actualmente es con la línea de buques cargueros “Triple-E”
del grupo Maersk, que será la más grande del mundo, tanto en tamaño
(400 m de largo, 59 m de ancho, 73 m de altura) como en capacidad (18 000
TEU), 16% más de capacidad que el siguiente barco más grande.
Pero hacer un barco que sea simplemente más grande que los demás
no era el objetivo del grupo Maersk. No sólo diseñaron un barco con mayor
capacidad, sino que diseñaron un barco que fuera eficiente en consumo de
combustible, ecológico y se beneficiara de las economías de escala, esto es
lo que representa el nombre “Triple-E”. De la eficiencia de los motores y el
aumento de la capacidad se deriva que el barco sea amigable con el ecosistema, ya que al consumir menos combustible, pero aumentar la carga, el
barco reduce 50% la huella de carbono por tonelada transportada. También
el bajo consumo de combustible y el aumento en 16% de la capacidad de
carga le permitirán al grupo beneficiarse de las economías de escala, debido a que el costo por tonelada transportada se reduce.
Telecomunicaciones
Las telecomunicaciones hacen referencia a los medios de procesar y transmitir información, se enfocan principalmente en el estudio, así como en la
aplicación de técnicas para diseñar sistemas que permiten la comunicación
a diferentes distancias, principalmente de larga distancia, mediante la
2.5 Últimos desarrollos ingenieriles en diferentes sectores
43
transmisión y recepción de señales, las cuales se envían mediante ondas
electromagnéticas; también puede ser por cualquier medio que permita la
comunicación entre el origen y el destino. Dada la importancia que ha tenido este sector en la vida cotidiana del hombre, se mencionarán a continuación las dos innovaciones más importantes (4G y Skype) que han revolucionado al mundo, al permitir que la comunicación sea de forma más
sencilla y eficiente.
La red 4G, como su nombre lo indica, es la cuarta generación de tecnología para la comunicación móvil. Ésta provee un Internet de banda ancha
móvil, voz IP, servicio de juegos, video y televisión en HD, así como servicios de nube (un gran número de computadoras conectadas y sincronizadas todas a una red en tiempo real), entre otras aplicaciones. Esta última
generación fue desarrollada e implementada en el año 2010; en general,
todos estos desarrollos de redes de comunicación, junto con el smartphone, hacen de la comunicación algo cada vez más sencillo y práctico,
donde básicamente puede conectarse con todo el mundo.
Skype, diseñado en 2003, es un software que permite la comunicación
entre los usuarios del mismo por medio de texto, voz y/o video de manera
gratuita o con forma de prepago, gracias a su característica YY SkypeOut,
para realizar llamadas a teléfonos convencionales o móviles, cobrando diferentes tarifas según sea el país de destino, a un costo muy bajo, de tal
forma que este software no limita la comunicación solamente entre usuarios, sino permite la comunicación a diferentes partes del mundo con tan
sólo realizar una llamada. Otra característica que proporciona el software
es el SkypeIn, la cual consiste en proporcionar un número de teléfono al
usuario con el fin de que a través de cualquier teléfono pueda conectarse a
la computadora, permitiendo tener un servicio de voz disponible para
cuando no se encuentre al usuario que se desea contactar.
FIGURA 2.13 Smartphones
http://www.phonegain.com/wp-content/uploads/2013/02/Smartphones.jpg
44
Capítulo 2
El mundo de la ingeniería
2.6 Retos y nuevas fronteras
Una vez visto todo lo que la ingeniería es y ha logrado hasta ahora, es momento de mirar hacia el horizonte y hacia las nuevas fronteras de la ingeniería, así como los retos con los que se encontrará en un futuro no muy
lejano.
Retos
•
•
•
•
•
•
•
•
•
•
•
•
•
Hacer que la energía solar sea más económica.
Proveer energía eléctrica a partir de la fusión.
Desarrollar métodos de secuenciación de carbono.
Controlar el ciclo de nitrógeno.
Proveer acceso mundial al agua potable.
Restaurar y mejorar la infraestructura urbana.
Hacer avances en la computación para la salud.
Desarrollar mejores medicinas.
Ingeniería inversa del cerebro.
Prever el terror nuclear.
Un ciberespacio más seguro.
Mejorar la realidad virtual.
Desarrollar nuevas herramientas para el descubrimiento científico.
Nuevas fronteras
Ingeniería climática. El balance de nuestro planeta es muy sensible a las acciones del ser humano y recientemente ha llegado a niveles sin precedente
en la historia de la humanidad. Uno de los más claros indicadores de esto
se puede observar en el aumento de las concentraciones de dióxido de carbono (CO2) en la atmósfera, de 280 partes por millón (ppm) antes de la
Revolución Industrial, a unas 385 ppm actualmente. La ingeniería climática es el concepto de modificar proactiva y artificialmente el sistema de la
Tierra, de tal forma que pueda combatir los cambios producidos por el ser
humano en el balance radiactivo del planeta.
Dentro de las modificaciones que se han considerado está la reflectividad de la atmósfera: a través de la creación de aerosoles, hacer las nubes
más brillantes y el retiro a gran escala de carbón por medio de la inducción
de cambios en la química y biología de los océanos.
Electrificación del vehículo. La industria automotriz está en una de sus
etapas más rápidas y dinámicas de la historia: la electrificación del vehículo, motivada por la problemática, cada vez mayor, del calentamiento global,
la sustentabilidad y la seguridad nacional. La respuesta general a estas situaciones, dado el gran número de automóviles en el mercado, es implementar regulaciones demandando una mejor eficiencia en el consumo de
combustible de los vehículos; como respuesta, la industria automotriz está
2.6 Retos y nuevas fronteras
45
FIGURA 2.14 Tesla Roadster
http://upload.wikimedia.org/wikipedia/commons/2/22/Tesla_Roadster_Japanese_display.jpg
desarrollando nuevas tecnologías en cuanto al sistema de propulsión del
vehículo. Los sistemas híbrido eléctrico, eléctrico enchufable y eléctrico de
batería son de los más avanzados y prometedores.
El concepto de un vehículo eléctrico no es algo nuevo, pero los últimos
avances en los sistemas de almacenamiento de energía, las máquinas eléctricas, así como los sistemas eléctricos de integración y control, hacen de
un vehículo eléctrico un serio competidor del motor de combustión interna, donde los esfuerzos de la ingeniería deben enfocarse en dos cosas: la
reducción de los costos, tamaño y peso de las baterías o sistemas de almacenamiento de energía, que facilitaría la adopción y expansión de este tipo
de vehículo, y el desarrollo de mejores materiales magnéticos, que son utilizados en todo tipo de máquina eléctrica, siendo críticos para poder diseñar vehículos eléctricos de alto rendimiento.
Juegos serios. Los “juegos serios” (del inglés serious game), también
llamados “juegos formativos”, es el término usado para describir la creciente
aplicación de la tecnología de los videojuegos dentro de campos no relacionados con el entretenimiento. Actualmente los videojuegos son una industria gigante que está a la vanguardia en gráficos de computadora, interfaz
de usuario, así como software y hardware computacionales. Todo esto ha
hecho que otros sectores, como el de la salud o el naval, se enfoquen en
46
Capítulo 2
El mundo de la ingeniería
FIGURA 2.15 Prototipo del Hyperloop de Elon Musk
http://cdn2.sbnation.com/entry_photo_images/8594333/et3mockup2_large_verge_medium_
landscape.jpg
estas tecnologías desarrolladas para los videojuegos e intenten usarlas para
la educación, simulación y entrenamiento, la ciencia, fines organizacionales e incluso sociales, entre un gran número de otras aplicaciones. El sector
donde se da el mayor crecimiento actualmente es el sector de la salud, que
tiene abundantes retos.
Desarrollar materiales para la interface biológica. La habilidad de diseñar materiales útiles para la interface biológica, para obtener la respuesta
celular deseada, podría ser uno de los mayores avances médicos de la historia, ya que con éstos sería posible la regeneración de músculos, cartílagos
o tendones, y facilitarían considerablemente los procesos de rehabilitación,
incluso podrían llevar a la generación de órganos completos dentro del ser
humano. Para esto, ingenieros e investigadores deben enfocarse en el diseño de los materiales a utilizar, así como en el diseño de los biorreactores
donde enfocar su uso. Todo este campo aún se encuentra en etapa de desarrollo y es trabajo de un gran grupo de personas hacer de esto una realidad,
entre ellas ingenieros.
2.7 Conclusiones
En este capítulo pudimos entender la importancia de la ingeniería como
uno de los principales motores de cambio en la humanidad. Hablamos de
los grandes avances que se han dado a lo largo de la historia, observando los logros de personas como Leonardo da Vinci, James Watt y Alan Turing, cuando la ingeniería era considerada más como una sola disciplina que
47
2.7 Conclusiones
TABLA 2.2 Perspectivas tecnológicas para las próximas décadas
Presente
2015
Energía
Las celdas de combustible
son utilizadas comúnmente.
Se amplía el uso de fuentes
de energía alternativa. La
energía solar se hace más
económica.
Los dispositivos eléctricos
son mejorados por superconductores.
2025
El poder de la fusión nuclear
es usado comercialmente
para la producción de
electricidad.
2030 en adelante
Ambiente
Cada vez un mayor número
de productos es manufacturado con materiales reciclados. Aumento de empresas
socialmente responsables.
Reducción de los gases
invernadero. Mayor número
de normas gubernamentales ambientales para las
empresas.
El agua marina desalinizada
es económicamente viable.
Posibilidad de reciclar
contaminantes.
Desarrollo de la ingeniería
climática: posibilidad de
modificar el sistema de la
Tierra para combatir los
cambios en el balance del
planeta.
Campo/alimentación
Se cultiva la primera carne
de res en un laboratorio.
El cultivo de precisión es
cada vez más común.
El cultivo orgánico es incorporado al cultivo tradicional
por casi todos los países.
La cultura acuática provee
la mayor parte del consumo
de mariscos.
Gracias a la ingeniería genética el consumo de carne
se reduce al desarrollo de
carne cultivada.
Tecnologías
de información en hardware
Artefactos como las tablets,
smartphones o los google
glasses son ejemplos
de interfaces hombrecomputadora cada vez más
amigables.
La sociedad es cada vez
más paperless. Se desarrollan computadoras ópticas.
Los procesos paralelos en
computadoras son más
comunes.
Biochips que almacenan
datos en lazos moleculares
están disponibles comercialmente.
Tecnología
de información en software
Las redes nucleares aumen- El ciberespacio es más
tan en uso.
seguro.
La realidad virtual es un
hecho. Mayor uso de la
computación en servicios.
Inteligencia artificial y robots
humanoides son comunes
en la sociedad.
Telecomunicaciones
Casi 30% de la población
mundial está conectado por
Internet y redes sociales.
Los costos de comunicaciones e Internet se reducen
considerablemente.
Prácticamente toda la
población está conectada y
tiene acceso a Internet.
Avances en telepresencia
gracias al gran desarrollo de
la holografía.
Manufactura
La manufactura en masa de
productos personalizados es
posible.
Se desarrollan nuevas y
Se amplía el uso de matemejores aleaciones de
riales inteligentes.
metal. Las fábricas son cada
vez más automatizadas con
robots inteligentes.
La nanotecnología es desarrollada en aplicaciones
comerciales.
Medicina/
salud
La ingeniería genética hace
posible la manipulación y el
“diseño” de bebés.
Se provee acceso universal
al agua potable.
La genética ayuda al desarrollo de mejores medicinas
y tratamiento de enfermedades.
Desarrollo de materiales
para la interface biológica.
Espacio
Vehículos espaciales como
el “Curiosity” son enviados
al espacio con mayor frecuencia.
Bases lunares son establecidas permanentemente.
Se logra una misión exitosa
a Marte, el hombre camina
por primera vez en su
superficie.
Viajar por las estrellas se
hace factible. Se hace
contacto con otras formas
de inteligencia.
Transporte
Los automóviles híbridos
que combinan motores
eléctricos y de combustión
son más comunes.
Se amplía el uso de trenes
“Maglev”. Los viajes en
avión son algo cotidiano.
Se desarrollan autopistas
inteligentes, se aumentan
las dimensiones del transporte comercial.
Los transportes automatizados, que no necesitan de
un conductor, son posibles
reduciendo el número de
accidentes y haciendo un
transporte más eficaz.
48
Capítulo 2
El mundo de la ingeniería
los hacía en parte inventores, técnicos y científicos. La ingeniería ha evolucionado hasta ser algo multidisciplinario y más específico, con campos que
van desde lo general, como la ingeniería mecánica, hasta lo más específico,
como la ingeniería en alimentos. Con un gran número de universidades
ofreciendo amplia variedad de programas, con un campo laboral que aún
tiene mucho por explotar y con un sin fin de asociaciones alrededor del
mundo, la ingeniería ha desarrollado gran parte de los últimos avances de
la humanidad en campos como la alimentación y las telecomunicaciones, y
su naturaleza es seguir creando e innovando con varios retos visibles en el
horizonte.
EJERCICIOS PROPUESTOS
1. Investigue los inventos más notables de Thomas Edison desde su punto de vista y discuta
cómo es que éstos revolucionaron o siguen revolucionando al mundo.
2. ¿Cuál es la importancia de Henry Ford dentro de la ingeniería industrial?
3. ¿Cuál es el principal campo laboral de un ingeniero civil?
4. ¿De qué forma considera que se podría relacionar la ingeniería química con la ingeniería
mecánica?
5. ¿Qué es un ingeniero eléctrico y en qué se diferencia de un ingeniero electrónico?
6. Investigue sobre al menos tres ingenierías que no hayan sido mencionadas en este capítulo.
7. Investigue cuáles son las mejores instituciones para el estudio de ingeniería en su país.
8. Investigue sobre las distintas asociaciones de ingenieros existentes en su país o región.
9. ¿Cuál de los últimos desarrollos ingenieriles aquí mencionados considera que es el de mayor
trascendencia? ¿Por qué?
10. ¿Cuál cree usted que podría ser otro reto o frontera de la ingeniería?
Referencias
Adam, E. E. y Ebert, R. J. (1991). Administración de
la producción y las operaciones, 4a. Ed. Prentice
Hall, México.
Amsden, A. H. (1989). Asia’s Next Giant: South
Korea and Late Industrialization. Oxford
University Press, Nueva York.
Andrews, D. Presidente Federal. Instituto de
Ingenieros Industriales de Australia. Comunicación personal. Noviembre, 2004.
Bureau of Labor Statisitics (2012). Household data
annual averages. United States Department of
Labor. http://www.bls.gov/
Brandenburger, A. M. y Nalebuff, B. J. (1996).
Co-Opetition. Doubleday, Nueva York.
Byrne, D. M. y Taguchi, S. (1987). The Taguchi
approach to parameter design. Quality Progress,
Dic. 19-26.
Carvallo, E. Profesor. Sección Ingeniería Industrial.
UPC. Comunicación personal. Noviembre,
2004.
Case, K. et al. (1993). Introduction to Industrial
and Systems Engineering, 3a. Ed. Prentice
Hall.
Castro, A. Director. Escuela de Ingeniería. UP.
Comunicación personal. Noviembre, 2004.
Chandler, A. D. Jr. (1977). The Visible Hand: The
Managerial Revolution in American Business.
Harvard University Press, Cambridge.
Referencias
Chandler, A. D. Jr. (1984). “The emergence of managerial capitalism”. Business History Review, 58,
473-503. Harvard Business School Press,
Boston.
Chandler, A. D. Jr. (1986). “The evolution of the
modern global corporation”. En Competition in
Global Industries, Porter, M. E. (Ed.). Harvard
Business School Press, Boston.
Chung, K. L. (1974). A Course in Probability Theory,
2a. Ed. Academic Press, San Diego.
Crosby, P. B. (1979). Quality is Free. McGraw-Hill,
Nueva York.
Damelio, R. (1977). Los fundamentos del benchmarking. Panorama Editorial, México.
Dixit, A. (1980). “The role of investment in entry
deterrence”. Economic Journal, 90, 95-106.
Dodge, H. F. y Romig, H. G. (1959). Sampling
Inspection Tables-Single and Double Sampling.
(2a. Ed.). John Wiley, Nueva York.
Dunning, J. H. (1993). Multinational Enterprises
and the Global Economy. Addison Wesley,
Reading.
Espasadin, J. Profesor y Director. Sección Ingeniería
Industrial. UDELAR. Comunicación personal.
Noviembre, 2004.
Evans, J. R. (1993). Applied Production and Operations Management, 4a. Ed. West Publishing Co.,
Minneapolis.
Feigenbaum, A. V. (1983). Total Quality Control.
McGraw-Hill, Nueva York.
Filippova, A. A. (1962). “Mises’ theorem on the
asymptotic behavior of functionals of empirical
distribution functions and its statistical applications”. Theory of Probability and its Applications,
7, 24-57.
Flaherty, M. T. (1996). Global Operations Management. McGraw-Hill. Nueva York.
Garvin, D. A. (1984). “What does ‘product quality’
really mean?”, Sloan Management Review,
Otoño. 25-43.
Ghemawat, P. (1991). Commitment: The Dynamics of
Strategy. Free Press, Nueva York.
Gilbert, R. J. y Newberry, D. M. G. (1982). “Preemptive patenting and the persistence of monopoly”.
American Economic Review, 72, 514-526.
Gill, P. E., Murray, W. y Wright, M. H. (1981).
Practical Optimization, 4a. Ed. Academic Press,
Nueva York.
Goetsch, D. L. (1991). Modern Manufacturing
Processes. Delmar Publishers Inc. Nueva York.
González, D. Coordinador de Especialidad. Ingeniería Industrial. Comunicación personal. Noviembre, 2004.
49
Hayes, R. H. y Pisano, G. (1994). “Beyond wold class:
the new manufacturing strategy”. Harvard
Business Review, 1, 77-86.
Hayes, R. H. (2002). “Challenges Posed to Operations
Management by the ´New Economy´”. Production and Operations Management, 11, 21-32.
Hill, T. (1993). Manufacturing Strategy Text and
Cases. Irwin, Boston.
Hogg, R. V. y Craig, A. T. (1987). Introduction to
Mathematical Statistics, 4a. Ed. Macmillan
Publishing Co., Nueva York.
Hopp, W. J. y Spearman, M. L. (1996). Factory
Physics. Irwin, Boston.
Iglehart, D. L. (1978). “The regenerative method for
simulation analysis”. En Current Trends in
Programming Methodology, vol. III. Software
Engineering, 52-71, Chandy, K. M. y Yeh, R. T.
(Eds.). Prentice Hall, Nueva York.
IIE Council, (2002). “The Future of Industrial
Enginnering Research”. IIE. www.iienet.org
IIE Web staff, (2004). “Engineering education must
grow and adapt”. www.iienet.org
Ishikawa, K. (1972). Guide to Quality Control. Asian
Productivity Organization, Tokio.
Juran, J. M. y Gryna, F. M. (1970). Quality Planning
and Analysis. McGraw-Hill, Nueva York.
Juran, J. M. (Ed.) (1974). Quality Control Handbook,
3a. Ed. McGraw-Hill, Nueva York.
Kackar, R. N. (1989). “Taguchi’s quality philosophy:
analysis and commentary”. En Quality Control,
Robust Design and the Taguchi Method. Dehnad
K. y AT&T Bell Laboratories (Eds.). Wadsworth
& Brooks/Cole Advanced Books & Software,
Calfornia.
Krajewski, L. J. y Pritzman, L. (1993). Operations
Management: Strategy and Analysis. Addison
Wesley, Nueva York.
Kreps, D. M. y Wilson, M. (1982). “Reputation and
imperfect information”. Journal of Economic
Theory, 27, 253-279.
Lacayo, O. Director. Departamento de Ingeniería
Industrial y de Sistemas. ITESM. Comunicación
personal. Noviembre, 2004.
Machuca, J. (1995). Dirección de operaciones:
aspectos tácticos y operativos. McGraw-Hill,
México.
Massaki, I. (1986). Kaizen - The Key to Japan’s
Competitive Success. McGraw-Hill, Nueva York.
McMillan, J. (1990). “Managing suppliers: incentive
systems in japanese and U.S. industry”. California Management Review, Verano. 38-55.
Mejía, M. Director División Académica de Ingenierías. Instituto Tecnológico Autónomo de
50
Capítulo 2
El mundo de la ingeniería
México. Comunicación personal. Noviembre,
2004.
Milgrom, P. y Roberts, J. (1982). “Limit pricing and
entry under incomplete information: an
equilibrium analysis”. Econometrica, 50,
443-459.
Mitra, A. (1998). Fundamentals of Quality Control
and Improvement, 2a. Ed. Prentice Hall, New
Jersey.
Montgomery, D. C. (1991). Diseño y análisis de
experimentos. Grupo Editorial Iberoamérica,
México.
Muñoz, D. F. (1992). “Tendencias actuales en los
sistemas de producción”. En Programa de
Desarrollo Empresarial, Fascículo 2 del Módulo V, M. E. Casar (Ed.). Nacional Financiera.
México.
Muñoz, D. F. y Glynn, P. W. (1997). “A batch means
methodology for estimation of a nonlinear
function of a steady-state mean”. Management
Science, 43:8, 1121-1135.
Niebel, B. W. (1987). “Design-to-manufacture”. En
Production Handbook, 4a. ed., White, J. A. (ed.).
John Wiley, Nueva York.
National Academy of Engineering (2012). Frontiers
of Engineering: Reports on Leading-Edge
Engineering from the 2012 Symposium. The
National Academy Press, Washington, DC.
National Academy of Engineering (2012). Grand
Challenges. http://www.engineeringchallenges.
org/
Ohmae, K. (1985). Triad Power. The Free Press,
Nueva York.
Porter, M. E. (1985). Competitive Advantage. The
Free Press, Nueva York.
Quintanilla, F. Vicepresidente. Instituto de Ingenieros Industriales México. Comunicación personal. Noviembre, 2004.
Resnick, M. Representante. Instituto de Ingenieros
Industriales. Comunicación personal. Noviembre, 2004.
Rocca, E. Profesor y Coordinador. Sección Ingeniería
Industrial. PUCP. Comunicación personal.
Noviembre, 2004.
Russell, R. y Taylor III, B. W. (1995). Production and
Operations Management Focusing on Quality
and Competitiveness. Prentice Hall, New
Jersey.
Sack, R. Director. Sección Ingeniería Industrial. UTN.
Comunicación personal. Noviembre, 2004.
Santandreu, M. J. (1991). Gestión de la calidad.
ESADE Press, Barcelona, España.
Schmalensee, R. (1983). “Advertising and entry
deterrence: an exploratory model”. Journal of
Political Economy. 91:4, 636-653.
Searle, S. R. (1971). Linear Models. John Wiley,
Nueva York.
Shapiro, C. (1989). “The theory of business strategy”.
RAND Journal of Economics, 20:1, 125-137.
Shewhart, W. A. (1931). Economic Control of Quality
of Manufactured Product. D. Van Nostrand,
Nueva York.
Shingo, S. (1989). A Study of the Toyota Production
System from an Industrial Engineering
Viewpoint. Productivity Press, Cambridge.
Skinner, W. (1974). “The focused factory”. Harvard
Business Review, 3, 113-121.
Spendolini, M. J. (1992). The Benchmarking Book.
American Management Association, Nueva
York.
Taguchi, G. y Clausing, D. (1990). “Robust quality”.
Harvard Business Review, 1, 65-75.
Taylor, F. W. (1911). The Principles of Scientific
Management. Harper & Row, Nueva York.
Teece, D. J., Pisano, G. y Shuen, A. (1997). “Dynamic
capabilities and strategic management”. Strategic
Management Journal, 18:7, 509-533.
The George Washington University (2000). The GW
Forecast. GWForecast.gwu.edu
Times Higher Education (2013). World University
Rankings 2013-2014. TSL Education Ltd.
http://www.timeshighereducation.co.uk/
UNCTAD (1993). The World Investment Report
1993: Transnational Corporations and Integrated International Production. Publicación de la
Organización de las Naciones Unidas, Programa
de la UNCTAD sobre Corporaciones Trasnacionales.
Verter, D. y Dincer, M. C. (1992). “An integrated
evaluation of facility location, capacity expansion and technology selection for designing
global manufacturing strategies”. European
Journal of Operational Research, 60, 1-18.
Weiss, R. (2000). “The Future of Production Incentives”. Pennsylvania. Estados Unidos.
Wheelwright S. C. y Hayes, R. H. (1985). “Competing
through manufacturing”. Harvard Business
Review, 1, 99-109.
World Bank (1995). World Tables. The John Hopkins
University Press, Baltimore.
CAPÍTULO
3
Estrategia, innovación
y competitividad
AUTOR:
Dr. Carlos Zozaya Gorostiza
3.1
3.2
3.3
3.4
3.5
3.6
Nuevo entorno competitivo
Estrategia
Estrategia versus efectividad operativa
Posiciones de ventaja competitiva
Fuentes de ventaja competitiva
Cadena de valor
3.7 Innovación de procesos
3.8 Premio de la innovación
3.9 Disciplina de la innovación
3.10 Oportunidades y fuentes de la
innovación
3.11 Metodología de innovación
3.12 Mapa de la estrategia
3.13 Comentarios finales
3.1 Nuevo entorno competitivo
Durante las últimas décadas los desarrollos tecnológicos, el establecimiento de acuerdos comerciales de libre comercio y los cambios demográficos,
entre otros factores, han modificado de manera sustancial el entorno en el
cual compiten las organizaciones. Entender las características de este nuevo entorno, así como los retos que él mismo impone a cualquier organización proveedora de productos y servicios, son dos elementos fundamentales para un profesional que, como el ingeniero industrial, desea contribuir
a la creación de valor en una empresa u organización privada o pública.
Anteriormente las organizaciones competían con otras empresas de la
misma región o giro. Actualmente, tecnologías como el Internet han globalizado la competencia y disminuido las barreras geográficas que antes limitaban el número de competidores que participaba en una determinada industria. Hoy ya no estamos limitados a comprar en las librerías de nuestra
ciudad, sino que tenemos la posibilidad de adquirir libros de alguno de los
múltiples sitios de Internet, los cuales en muchos casos tienen un mayor
surtido y un menor precio que el que nos ofrecen los proveedores locales.
De igual forma, hoy tenemos la posibilidad de comprar un boleto de avión
o de hacer una reservación de hotel usando Internet sin necesidad de pagar
a los agentes de viajes locales una comisión por este tipo de servicio. Estos
ejemplos ilustran que existe una mayor amenaza de nuevos competidores y
52
Capítulo 3
Estrategia, innovación y competitividad
que las organizaciones tienen cada vez más la necesidad de brindar un mayor valor por sus productos y servicios que los que brindan los demás competidores.
Por otra parte, las fronteras entre las distintas industrias son cada vez
más difusas, ya que nuevos productos o servicios de una determinada industria pueden volverse sustitutos en otra. Considérese, por ejemplo, lo
que le ocurrió a la Encyclopedia Britannica hace algunos años. En aquel
entonces, Microsoft, el fabricante del sistema operativo Windows y de herramientas para el procesamiento de textos, desarrollo de hojas de cálculo y
elaboración de presentaciones gráficas, entre otros productos, se acercó
a los dueños de la Enciclopedia Británica para explorar la posibilidad de
ofrecer este producto junto con el sistema operativo Windows en las computadoras personales. Este ofrecimiento fue rechazado categóricamente por
los dueños de la Enciclopedia, que consideraron que su producto perdería
el prestigio ganado a lo largo de muchos años. Microsoft optó entonces por
comprar otra enciclopedia que, a pesar de tener un contenido sustancialmente inferior al de la Enciclopedia Británica, podía ejecutarse en una
computadora, y fue rápidamente adoptada por los usuarios de estos equipos. Años más tarde, esta enciclopedia, que dio lugar al producto Encarta
de Microsoft, fue desplazando a la Enciclopedia Británica del mercado,
provocando eventualmente su adquisición por otra empresa. Lo que los
dueños de la Enciclopedia Británica no alcanzaron a visualizar es que productos aparentemente distintos, como una computadora y una enciclopedia, en realidad competían por captar recursos de los padres de familia que
buscaban hacer una inversión para el beneficio de sus hijos. Así, entre comprar una computadora que a los niños les parecía más útil y divertida, a
pesar de traer consigo una enciclopedia con un contenido hasta cierto punto limitado, o comprar una enciclopedia con un contenido estupendo pero
pocas veces consultada por los mismos niños, los padres de familia optaban por comprar la computadora.
Los ejemplos anteriores ilustran la necesidad que tienen las organizaciones de ser ágiles, flexibles y orientadas al cliente. El entorno actual es
muy distinto a aquel en el que competía Henry Ford, y que quedaba reflejado en su famosa frase de que su empresa podía proveer automóviles de
cualquier tipo y color siempre y cuando fueran del Modelo T y negros. Hoy
los clientes demandan productos a la medida de sus necesidades y estilos
de vida. Por ello, las organizaciones están obligadas a entender mejor qué
es lo que quiere cada uno de sus clientes y a responder ágilmente a sus demandas. Si no lo hacen, los consumidores optarán por otro proveedor que
sí sea capaz de brindarles lo que solicitan a un precio adecuado. En consecuencia, el reto para cualquier proveedor es ser capaz de proporcionar esta
variedad de productos o servicios con la misma efectividad y eficiencia que
anteriormente sólo era aplicable a la producción en masa, donde las economías de escala brindaban una ventaja para amortizar las inversiones en capital.
53
3.2 Estrategia
3.2 Estrategia
¿Cómo puede una organización competir exitosamente en un entorno
como el descrito en la sección anterior?, o dicho de otra manera: ¿cómo
puede una organización ofrecer un valor distintivo en sus productos o servicios que no ofrecen sus competidores? La respuesta a estas preguntas
implica entender los conceptos de estrategia y de posición de ventaja.
En términos generales, una estrategia puede concebirse como un conjunto de decisiones que una organización o individuo toma para poder alcanzar ciertos objetivos particulares (Day y Reibstein, 1997; Porter, 1996).
Este conjunto de objetivos constituye la visión que se espera lograr en un
futuro, y así la estrategia puede interpretarse como el medio para lograr
estos fines. Dado que no todos los caminos tienen la misma factibilidad de
llevarnos hacia nuestro destino, y que cada camino puede implicar distintas habilidades para transitar por él, cada organización debe elegir una ruta
particular que maximice sus posibilidades de lograr su visión. Por ejemplo,
una empresa que cuenta con una amplia fuerza de ventas puede optar por
competir diseñando una estrategia que aproveche este recurso, que otros
de sus competidores no tienen.
Ahora bien, ¿cuáles son las decisiones más importantes que constituyen una estrategia? Estas decisiones pueden agruparse en las cuatro categorías mostradas en la figura 3.1:
•
Arena: una empresa debe elegir en qué “arena” va a competir. Ello
implica definir su negocio, seleccionar los mercados objetivo y escoger los segmentos a atender en cada uno de dichos mercados.
Definición
del negocio
Mercados
a servir
Énfasis
Arena
Ventaja
Segmentos
objetivo
Diferenciación
Propiedad
de canales
Variedad
de canales
Posicionamiento
Diferenciación
Acceso
Actividades
Diferenciación
Alianzas
Comunicación
FIGURA 3.1
54
Capítulo 3
•
•
•
Estrategia, innovación y competitividad
Ventaja: de igual forma, una organización debe identificar cuál va
a ser la propuesta de valor que va a brindar a cada segmento de
clientes, que haga que los consumidores opten por sus productos/
servicios y no por los de sus competidores.
Actividades: el tercer tipo de decisiones que debe tomar una empresa se refiere a la selección de actividades que formarán la base
de la propuesta de valor de la empresa y a la opción de hacerlas con
recursos propios o con apoyo de terceros.
Acceso: finalmente, otro conjunto de decisiones estratégicas se refiere a los canales por los cuales una empresa hace llegar sus productos y servicios a sus clientes y/o intermediarios.
Considérese, por ejemplo, las diferentes estrategias que seguiría una compañía que se define como una tienda departamental, orientada al segmento
superior de la pirámide económica en las principales ciudades del país (i.e.,
arena) con la propuesta de valor de brindar siempre “lo último y lo diferente” a su clientela, y una empresa que, como Walmart, decide distinguirse de
sus competidores por brindar “precios bajos siempre”. En el primer caso, la
compañía requiere apoyar su propuesta de valor en actividades de compra
sustentadas en un buen análisis de las tendencias de la moda, en el establecimiento de alianzas con marcas exclusivas que no tengan sus competidores, y en la realización de eventos (por ejemplo, desfiles de moda) que
refuercen la imagen de exclusividad y buen gusto ante sus clientes. Asimismo, esta compañía puede adaptar sus almacenes con miras a hacer que en
ellos sea más agradable la experiencia de comprar, y promover un trato más
personalizado de sus vendedores hacia los consumidores potenciales en
sus tiendas.
En el caso de Walmart, la empresa requiere, por ejemplo, de acuerdos
comerciales agresivos con sus proveedores, así como de un sistema de
abastecimiento robusto, eficiente y ágil que reduzca los costos unitarios
de los productos que ofrece a sus clientes. Nótese que en el ejemplo anterior ambas empresas pueden coexistir porque atienden segmentos de mercado diferentes y ofrecen propuestas de valor distintas.
3.3 Estrategia versus efectividad operativa
Michael Porter (1996; 2001) distingue entre estrategia y efectividad operativa. Una empresa opera de manera efectiva si se encuentra cerca de la
“frontera de productividad”, la cual representa el máximo valor que una
organización puede otorgarle a sus clientes en un producto o servicio a un
precio dado. Cuando un competidor está más cerca de la frontera que otro,
implica que puede brindar un valor equivalente a sus competidores a un
precio menor, o bien que a un mismo precio brinda un mayor valor en sus
productos o servicios que el de sus competidores.
55
3.4 Posiciones de ventaja competitiva
Valor para el comprador
independientemente del precio
Alto
Frontera de
la productividad
C
A
B
Bajo
FIGURA 3.2 La frontera de la
productividad
Alto
Posición relativa del costo
Bajo
La figura 3.2 muestra la posición relativa de tres empresas con respecto
a esta frontera. Un consumidor interesado en el precio preferirá comprar a
la empresa B que a la empresa A, porque ambas empresas ofrecen productos/servicios de un “valor” similar, pero la empresa B los vende más baratos. De igual forma, los consumidores dispuestos a pagar un precio similar
al del producto/servicio ofrecido por la empresa A preferirán adquirir el
producto/servicio ofrecido por la empresa C, ya que al mismo precio ofrece un mayor valor. Nótese que entre las empresas B y C no hay un claro
ganador. Algunos consumidores preferirán productos de menor valor, pero
también de menor precio, como los que ofrece la empresa B, y otros optarán por productos más caros pero de valor superior, como los que ofrece la
empresa C.
3.4 Posiciones de ventaja competitiva
El ejemplo anterior ilustra la importancia de hacer más eficientes y efectivos los procesos de una organización. Sin embargo, el acercarse a la frontera es necesario, más no suficiente, para que una estrategia sea exitosa a
largo plazo. En otras palabras, hacer lo mismo que los competidores, pero
de mejor manera, no da una ventaja competitiva sostenible, porque eventualmente ellos pueden alcanzarnos al volverse más eficientes. Por ello, una
estrategia sostenible implica hacer algo diferente ante los ojos de nuestros
clientes. En este sentido, hacer algo distinto debe estar orientado a lograr
una posición de ventaja con respecto a los competidores.
En términos generales, existen tres posiciones de ventaja por las cuales
puede optar una empresa al definir su propuesta de valor:
56
Capítulo 3
Estrategia, innovación y competitividad
1. Excelencia en la operación: cuando una empresa compite con esta
posición de ventaja, sus productos y servicios están orientados al
cliente sensible al precio que busca un servicio básico sin problemas. Para lograr excelencia en la operación, los procesos de la empresa deben estar estandarizados, altamente automatizados e integrados a través de las fronteras de la organización. Los sistemas y
procesos administrativos se defi nen y ejecutan “de arriba a abajo”
para garantizar el apego al modelo operativo y los empleados son
más dirigidos que autónomos. McDonald’s ilustra esta forma de
competir. La empresa vende una gama de productos limitados, estándar y de bajo costo. Para lograrlo, establece acuerdos comerciales de alto volumen con un mismo conjunto de proveedores que
surten los insumos a todos los puntos de venta de la empresa. Los
procesos de operación están claramente definidos y automatizados
con las mismas máquinas (por ejemplo, las que se usan para servir
los refrescos o para preparar las papas fritas) con miras a garantizar que en todos los locales tengan consistencia en lo que ofrecen.
Otras empresas que compiten de esta manera son Walmart,
Southwest Airlines y Federal Express.
2. Intimidad con los clientes: cuando una empresa compite con esta
posición de ventaja, su objetivo es darle al cliente lo que pida y lograr una capacidad de respuesta hacia sus demandas, que ningún
otro competidor pueda ofrecer. A diferencia de la posición de ventaja anterior, sus productos y servicios son, en muchos casos, únicos para cada uno de sus clientes. Por ello, sus procesos operativos
son flexibles y facilitan múltiples modos de generar y entregar productos y servicios de acuerdo con las características particulares
de cada cliente. La gente que atiende a los clientes tiene las facultades necesarias para tomar decisiones con base en información detallada de consumidores y canales. El objetivo es llegar a entender
tan bien a cada cliente, que nos constituyamos en un “socio” de
ellos, creando una barrera de entrada para otros competidores.
Muchas empresas consultoras, como McKinsey, Deloitte o KPMG,
que tienen como objetivo ayudar a sus clientes a resolver problemas o mejorar procesos para crear valor, compiten de esta forma.
Sin embargo, no sólo las empresas de servicios son capaces de
competir en esta posición de ventaja. Una empresa productora
de pegamentos sofisticados para pegar las alas de los aviones de
una empresa como Boeing, también competiría de esta manera, ya
que sus productos se fabricarían especialmente para las necesidades de Boeing en función de las características particulares de sus
nuevos aviones. Lo mismo ocurre con empresas como Lutron
Electronics, que proporciona equipos para instalaciones eléctricas
con características particulares en cada pedido de sus clientes.
3.4 Posiciones de ventaja competitiva
•
•
•
57
“El mejor precio”
“Servicio básico pero sin problemas”
“Excelente valor por mi dinero”
Excelencia en la
operación
Liderazgo en productos
y servicios
•
FIGURA 3.3 Posiciones de
ventaja
•
•
“Realmente entienden mi
negocio”
“Exactamente lo que necesito”
“Socio de negocio”
Intimidad con el
cliente
•
•
•
“Siempre adelante”
“Precio alto, pero vale la pena”
“Permanentemente innovando”
3. Liderazgo en productos y servicios: cuando una empresa compite
por superioridad en desempeño, su objetivo es posicionarse en la
mente de sus clientes, como el proveedor que va adelante de sus
competidores en cuanto a la funcionalidad o características que
tienen sus productos/servicios. Por ello, estas empresas se mantienen permanentemente innovando y son los primeros en entrar al
mercado con nuevos productos y servicios de una funcionalidad
superior. Para lograrlo, su estructura organizacional es flexible y
en su cultura de trabajo se promueve el interés por experimentar
y el trabajo en equipo. Los procesos clave enfatizan el conocimiento
del mercado, la innovación y la reducción del ciclo del producto,
desde la generación de ideas hasta su inserción en el mercado.
Gillette, por ejemplo, invirtió cientos de millones de dólares en el
desarrollo de los cartuchos de su modelo Mach 3, los cuales, si bien
son más caros que otros productos de la competencia, ofrecen un
desempeño superior para el consumidor. Otras empresas que
compiten con esta posición son Nike, 3M y Sony.
Ahora bien, ¿puede una empresa optar por competir en más de una de las
tres posiciones de ventaja? En términos generales, lo adecuado es enfocarse
en ser el mejor de la industria en alguna de las posiciones señaladas y lograr
paridad con el promedio de los competidores en las dos restantes. La razón
de ello es que las tres posiciones tienen elementos incompatibles entre sí.
Una organización no puede tener al mismo tiempo procesos flexibles y
adaptables, y a la vez rígidos y automatizados. Adicionalmente, el éxito de
una organización depende de que sus clientes/intermediarios tengan clara
la propuesta de valor.
58
Capítulo 3
Estrategia, innovación y competitividad
Considérese lo que le ocurrió a Continental Airlines cuando hace algunos años quiso competir con Southwest Airlines. La propuesta de valor de
Southwest estaba dirigida a clientes sensibles al precio y a la conveniencia.
Con miras a reducir el precio de los boletos y el tiempo de espera en la sala,
la empresa optó por volar solamente de aeropuertos pequeños en rutas de
alto volumen y limitar algunos servicios que tenían un impacto negativo en
los costos: los boletos sólo se vendían en despachadores automáticos para
evitar el pago de comisiones a los agentes, no se permitía registrar equipaje
y no se ofrecía servicio de comida en los vuelos. En contraposición a estas
limitaciones, los pasajeros podían llegar con menos de media hora a abordar sus vuelos y el costo del boleto era sustancialmente inferior. Southwest
daba además una mayor utilización a su flota, por contar con un solo tipo
de avión y por volar de aeropuertos pequeños menos congestionados, lo
cual la hacía una de las pocas aerolíneas rentables. Al ver esto, Continental
decidió crear una nueva aerolínea, denominada Continental Lite, para
competir con Southwest en este segmento del mercado. Sin embargo, la
instrumentación de esta idea careció del foco adecuado para poder hacer
realidad su propuesta de valor. Para evitarse problemas con los agentes de
viajes, Continental decidió vender boletos usando este canal, lo cual incrementaba el costo por el pago de comisiones. Asimismo, para crear sinergias
con el resto de la organización la empresa decidió que Continental Lite
volaría de los mismos aeropuertos con los cuales ya tenía negociados acuerdos comerciales. El resultado fue que la empresa empezó a incumplir la
promesa de menor tiempo de espera en la sala y a perder dinero por no
haber hecho más eficientes sus procesos de operación.
Desde luego, una empresa muy grande puede tener varias unidades de
negocio con ofertas de productos/servicios orientadas a diferentes segmentos del mercado. Sin embargo, cada una de estas unidades de negocio
debe tener clara y bien sustentada su propuesta de valor.
3.5 Fuentes de ventaja competitiva
Para lograr y mantener cualquiera de las posiciones de ventaja descritas en
la sección anterior, las organizaciones deben contar con una o más fuentes
de ventaja. Una empresa puede, por ejemplo, tener mejores recursos que
los competidores. Por ejemplo, Industrias Peñoles, el principal productor
de plata a nivel global, tiene una mina en la ciudad de Fresnillo con una
concentración de plata por tonelada muy superior al de otras minas en el
mundo, ello le permite colocarse como uno de los proveedores más competitivos en costos de este mineral. De igual forma, una aseguradora puede
contar con una fuerza propia de ventas que le brinde una cobertura geográfica mayor que la de sus competidores. Otros ejemplos de superioridad en
recursos son la escala y capacidad de la infraestructura, la capacidad y estructura financiera, contar con marcas y patentes o tener un menor costo
de insumos, entre otros.
3.6 Cadena de valor
59
Otra fuente de ventaja la constituye tener habilidades superiores a las
de los competidores para realizar alguna tarea que impacte en el valor percibido por los clientes. Por ejemplo, una empresa automotriz como Mercedes o BMW puede tener una mejor capacidad de diseño que la de otros
competidores. De igual forma, una casa de bolsa puede contar con conocimiento especializado para identificar oportunidades de mejora en los portafolios de inversión de sus clientes que otros proveedores no tienen. Y una
tienda departamental puede tener compradores con más sentido de olfato
para detectar tendencias en la moda. Asimismo, una empresa puede distinguirse por contar con una mayor velocidad y flexibilidad de respuesta por
establecer relaciones más cercanas con los clientes y por su experiencia en
identificar, negociar y administrar alianzas.
Una tercera categoría de fuentes de ventaja la constituyen los controles
con los que cuenta la empresa, que ayudan a traducir los objetivos de la
organización en acciones concretas y medibles, así como contar con información útil para la toma de decisiones. Los sistemas de costeo basado en
actividades, por ejemplo, permiten que una organización conozca cuál es el
verdadero costo asociado a la producción o entrega de cada uno de sus
productos/servicios y poder enfocarse en aquellos que le generan mayor
valor. De igual forma, sistemas para administración de inventarios, para
monitorear la calidad, satisfacción y lealtad de clientes, y para administrar
el flujo de efectivo, constituyen ejemplos de herramientas de control que
pueden ayudar a que una empresa mantenga una posición de ventaja.
La cuarta y más importante fuente de ventaja de una organización la
constituyen sus actividades y la manera como ellas se alinean con la estrategia de la empresa. Las otras tres fuentes de ventaja: recursos, habilidades
y controles, eventualmente se reflejan en la posibilidad de realizar actividades de manera distinta. Por ejemplo, de nada sirve que una empresa tenga
un conocimiento más profundo de las necesidades de sus clientes y de sus
propios procesos operativos, si no actúa en consecuencia para darles un
mayor valor. Las actividades deben ser consistentes entre sí y reforzarse
mutuamente para reforzar la posición de ventaja de la organización.
3.6 Cadena de valor
Para entender el impacto de las actividades en la posición de ventaja de una
organización, es necesario conocer el concepto de cadena de valor (Porter
y Millar, 1985). La cadena de valor consiste en el conjunto de actividades
que añaden valor a un producto o servicio y se clasifican en:
a) Actividades primarias, que están asociadas con la creación y entrega del producto o servicio que ofrece la organización (por ejemplo, compras, manufactura, servicio, ventas y/o logística), y
b) Actividades de soporte, que son esenciales para apoyar la creación
o entrega del producto o servicio, aun cuando no lo transforman
60
Capítulo 3
Actividades
de soporte
Estrategia, innovación y competitividad
Infraestructura
Recursos Humanos
Tecnología
Abastecimiento
Logística de
entrada
Operaciones Logística
de salida
Mercadotecnia
y ventas
Servicio
Actividades
primarias
FIGURA 3.4 Cadena de valor
directamente (por ejemplo, administración de recursos humanos,
desarrollo de tecnología, abastecimiento e infraestructura).
La figura 3.4 muestra en forma genérica el concepto de cadena de valor de
una organización. Las actividades primarias incluyen la logística de entrada mediante la cual la empresa obtiene los insumos que habrá de transformar, a través de un conjunto de operaciones de manufactura en el producto
terminado, las actividades de logística de salida por medio del cual dicho
producto llega hasta los puntos de venta y las actividades asociadas con
la mercadotecnia, venta y servicio a dicho producto. Si la empresa falla en la
realización de alguna de estas actividades (por ejemplo, por una mala distribución se tienen retrasos en las entregas del producto a los clientes, o
por una mala manufactura se presentan problemas de calidad en el producto), el valor percibido por los clientes se verá afectado negativamente.
El marco conceptual anterior sería directamente aplicable a empresas
de manufactura. Sin embargo, todas las empresas, independientemente de
su giro, tienen una cadena de valor propia. La figura 3.5, por ejemplo,
muestra las cadenas de valor de una tienda departamental y de una aseguradora. En el caso de la tienda, mejoras en las actividades primarias, como
una mayor planeación de compras, nos ayudaría a tener “lo último, lo diferente”; una mejor asignación de los productos en la tienda contribuiría a
que los clientes se sientan atraídos a comprarlos, y un mejor manejo de las
promociones pueden ayudar a que el cliente perciba un mayor valor. En el
caso de la aseguradora, un mejor diseño técnico y comercial puede hacer
más atractivos nuestros productos/servicios, y un pago más oportuno puede aumentar la satisfacción y lealtad de los clientes.
El concepto de “valor” a los ojos del cliente es sumamente importante,
ya que las empresas compiten precisamente con base en el valor percibido
de sus productos o servicios. Desafortunadamente, gran parte de las inversiones en tecnología se destinan a mejorar actividades administrativas internas, que no necesariamente se traducen en un valor agregado para los
clientes. En ocasiones, algunas tecnologías, como las tecnologías de infor-
61
3.6 Cadena de valor
Aseguradora
Infraestructura
Recursos Humanos
Tecnología
Contraloría y finanzas
Diseño de
productos
Mercadotecnia Cotización
Suscripción
emisión
Pago de
siniestros
Compras
Distribución
Venta
Servicio
Tienda
Infraestructura
departamental
Recursos Humanos
Tecnología
Contraloría y finanzas
Asignación
FIGURA 3.5 Cadena de valor de una aseguradora y de una tienda departamental
mación, se utilizan únicamente para mecanizar los procesos de control actuales, lo cual, si bien puede hacer más eficientes estos procesos, no implica
de facto que la empresa se vuelva más competitiva. Es más, en ocasiones la
mecanización de estos procesos hace que la empresa se vuelva más rígida y
menos innovadora, lo que a la larga puede perjudicar su competitividad.
Porter y Millar (1985) mencionan que para lograr ventajas competitivas las organizaciones deben cambiar las actividades de la cadena de valor,
cambiar las relaciones entre estas actividades o bien modificar directamente los productos o servicios de la organización. Todas las actividades de la
cadena de valor tienen un componente f ísico y un componente de información. Por ejemplo, la actividad primaria de logística de salida involucra
componentes f ísicos (camiones, productos, inventarios, almacenes, recursos humanos) y de información (rutas, itinerarios, horarios, costos, niveles
de inventario). El buen uso de las tecnologías estará orientado a modificar
las actividades, no sólo a mecanizar el registro de transacciones. Por ejemplo, la División Arneses del Grupo Condumex desarrolló un sistema heurístico de balanceo de línea para simular planes de producción, el cual balancea la carga en las máquinas de una sección de la planta y reduce los
tiempos ociosos en la línea de producción (Zozaya, 1991). Este sistema
modifica una de las actividades de la cadena de valor (i.e., la operación o
manufactura) y permite tener una mejor respuesta a los requerimientos de
los clientes (lo que se traduce en un beneficio tangible para ellos). Similarmente, otras tecnologías de producto o proceso pueden aplicarse en forma
creativa para modificar diferentes actividades de la cadena de valor.
62
Capítulo 3
Estrategia, innovación y competitividad
3.7 Innovación de procesos
Además de poder transformar las actividades de la cadena de valor, las nuevas tecnologías se pueden utilizar para mejorar la coordinación entre estas
actividades. Muchos de los problemas de los procesos de una organización
se deben a que éstos se encuentran fragmentados. Esta fragmentación es
aún más pronunciada cuando se considera la relación entre una empresa y
sus proveedores y clientes. El éxito que han tenido los sistemas de intercambio electrónico de datos (EDI), por ejemplo, se debe precisamente a
que ayudan a aliviar esta fragmentación. Con un sistema de este tipo, el
proveedor y el comprador pueden mejorar la sincronización de sus actividades y tener una mejor coordinación y comunicación.
Hammer y Champy (1993) sugieren concebir a las tecnologías como
herramientas que nos permiten romper con reglas obsoletas para concebir
negocios. A continuación se dan algunos ejemplos.
•
•
•
•
•
Las bases de datos compartidas nos permiten tener información
disponible en forma simultánea en todos los lugares donde se necesite. Anteriormente, las organizaciones no tenían esta posibilidad, y por ello muchos de sus procesos se realizaban en forma secuencial. Con esta tecnología muchos de estos procesos pueden
realizarse en forma cooperativa, reduciendo el tiempo necesario
para ejecutarlos y mejorando la calidad de los mismos. Así, la regla: “la información sólo puede estar en un solo lugar en un momento dado”, se vuelve obsoleta.
Los sistemas expertos (SE) nos permiten representar y utilizar el
conocimiento de expertos para apoyar la toma de decisiones de
personal con menor conocimiento del campo de aplicación. La regla: “sólo los expertos pueden realizar trabajos complejos”, se vuelve obsoleta, ya que ahora un generalista puede realizar parte del
trabajo de un experto.
Las redes de comunicaciones y los sistemas ejecutivos de información permiten que una compañía pueda tener una toma de decisiones descentralizada y un control centralizado de la información. La
regla: “las compañías tienen que escoger entre descentralizarse o
centralizarse”, deja de ser aplicable.
Los sistemas de soporte a la toma de decisiones permiten romper
con la regla de que en la empresa: “solamente los gerentes pueden
tomar decisiones”. Así, la toma de decisiones se vuelve parte integral de cualquier puesto.
Los sistemas de rastreo e identificación automática permiten conocer la posición de vehículos, materiales y personas. Ya no es necesario “ir a buscar dónde están” estos componentes de la organización, sino que se puede tener información inmediata de su
localización.
3.7 Innovación de procesos
63
De esta manera, las tecnologías de información actúan como un facilitador
para reinventar la manera como operan las organizaciones. Gracias a ellas
podemos pensar en un rediseño radical de los procesos del negocio; en una
nueva forma de operar que antes no era posible.
Por su parte, Davenport (1993) menciona los siguientes impactos de las
nuevas tecnologías de información en la innovación de los procesos de una
organización:
•
•
•
•
Automatización: el beneficio más reconocido de las tecnologías de
información es su habilidad para eliminar trabajo humano y para
producir procesos más estructurados. Esta oportunidad ha sido
aprovechada en manufactura mediante aplicaciones de robótica,
sensores y actuadores. En áreas de servicio, donde los procesos se
asocian con flujos de documentos, ciertas tecnologías de información, como los paquetes de workflow, han empezado a automatizar
dichos flujos. Asimismo, otras aplicaciones, como las que se refieren al ruteo automático de llamadas (por ejemplo, para hacer más
efectiva la cobranza), también han modificado sustancialmente los
procesos organizacionales. La automatización también está jugando un papel importante en la administración de materiales e inventarios con el desarrollo de los sistemas de identificación automática, los sistemas de clasificación automática y los sistemas de
almacenamiento y recuperación automática de materiales.
Información: las tecnologías de información pueden utilizarse para
capturar información de la funcionalidad de un proceso, con miras
a hacerlo más efectivo o eficiente. En procesos productivos, diversas compañías han utilizado este tipo de aplicaciones para optimizar los planes de producción y reducir el consumo de energía. En
procesos administrativos, los sistemas de información ejecutiva
han jugado un papel muy importante en la retroalimentación que
reciben los ejecutivos sobre el desempeño de la organización.
Paralelismo: muchos procesos de la organización se realizan en forma secuencial por no aprovechar tecnologías de información, como
las bases de datos distribuidas y las redes. Gracias a estas tecnologías y a los sistemas de diseño e ingeniería asistidos por computadoras, se pueden reducir los tiempos de desarrollo de productos o los
tiempos asociados con procesos particulares. Por ejemplo, Kodak
utilizó este tipo de tecnologías para reducir el tiempo de desarrollo
de una nueva cámara portátil reciclable, y Phoenix Mutual Life hizo
algo similar con el proceso de suscripción de pólizas de seguros.
Rastreo: diversas aplicaciones de tecnologías de información para
localización de vehículos y productos están siendo utilizadas por
algunas organizaciones para mejorar sus procesos de logística de
entrada o de distribución; por ejemplo, Federal Express lee múltiples veces la etiqueta de envío de los paquetes para conocer su lo-
64
Capítulo 3
•
•
•
•
Estrategia, innovación y competitividad
calización, y la Delegación Benito Juárez (en México) utiliza radiolocalización para conocer la posición de sus patrullas. Asimismo,
el uso de bases de datos para monitorear la evolución de procesos
permite a las organizaciones tener un mejor control sobre éstos;
por ejemplo, Johnson & Johnson tiene un centro de investigación
centralizado con una base de datos donde se rastrea el estado de
evolución de sus procesos de desarrollo de productos.
Análisis: el uso de sistemas expertos (SE) y de sistemas para soporte a la toma de decisiones (DSS) permite a las compañías agilizar y
hacer más efectivos los procesos asociados con el análisis de información para la toma de decisiones. Por ejemplo, American Express
usa un SE para aprobar automáticamente solicitudes de crédito, y
Progressive Insurance utiliza un DSS para identificar aquellos conductores que tienen bajo riesgo.
Alcance geográfico: gracias a tecnologías de información (TI), como bases de datos distribuidas, videoconferencia, correo electrónico y redes de informática y telecomunicaciones, las compañías
que están dispersas geográficamente pueden realizar trabajos en
forma conjunta (e.g., para diseñar un nuevo producto o realizar
trabajos de consultoría o planeación) o agilizar sus procesos de recibo y embarque.
Integración: en relación con el impacto anterior, las TI pueden ayudar a integrar el trabajo de personas localizadas en diferentes unidades funcionales de la organización. Por ejemplo, el Gobierno del
Distrito Federal (en México) ha implementado un sistema para que
los contribuyentes puedan efectuar pagos en diferentes oficinas tributarias locales, sin importar su domicilio fiscal, para integrar esta
información centralmente, de manera que sus estados de cuenta
estén actualizados. Otras aplicaciones que han tenido mucho éxito
para integrar a proveedores con compradores son los sistemas de
negocio electrónico y de transferencia electrónica de fondos.
Eliminación de intermediarios: otro impacto que están teniendo
las TI se refiere a que el flujo de información se puede realizar en
forma automática sin necesidad de intermediarios. Esto es aplicable tanto a procesos internos de la organización (e.g., con el uso de
sistemas de información ejecutiva y de flujo de trabajo), como a
procesos interorganizacionales.
3.8 Premio de la innovación
En las secciones anteriores hemos explicado por qué es necesario contar
con una estrategia que incluya una propuesta de valor clara, que esté sustentada en un conjunto de fuentes de ventaja competitiva. Asimismo, hemos argumentado que dicha propuesta de valor debe ser distinta a la de los
competidores, y que esta diferenciación surge de modificar las actividades
3.9 Disciplina de la innovación
65
o procesos que constituyen la cadena de valor de una organización. También hemos explicado que ningún cambio es sostenible, y que por ello las
empresas deben mantenerse permanentemente innovando la manera como
hacen negocios. En esta sección complementamos dicha discusión con algunos datos que demuestran la validez de dichos argumentos, y que existe
un “premio” del mercado para las empresas innovadoras.
Jonash y Sommerlatte (1999) señalan que más que un cambio de liderazgo, que una fusión o adquisición y que un compromiso por reducción de
costos, los inversionistas premian a la innovación.
•
•
•
•
Las compañías en el 20% superior del ranking de la revista Fortune
sobre innovación, crean el doble de valor que el resto de sus competidores en sus industrias; en contraparte, las compañías en el
20% inferior del ranking de Fortune sobre innovación, crean un
tercio de valor que el resto de sus competidores en sus industrias.
Adicionalmente, su investigación mostró que 95% de los analistas
de Wall Street respondieron que existe un premio por la innovación; más de 90% indicaron que la importancia de la innovación ha
crecido significativamente en los últimos años; más de 70% señalaron que la innovación es el driver principal de cómo el mercado
valúa a las empresas.
Por su parte, 84% de los ejecutivos entrevistados señalaron que la
innovación es ahora un asunto estratégico para sus empresas, y
49% indicaron que habían progresado hacia el desarrollo y la aplicación de procesos sistemáticos y métricas para promover la innovación en sus organizaciones.
Sin embargo, 85% de las 700 empresas indicaron que estaban insatisfechas con la manera como ellos manejaban la innovación, y señalaron que existía una brecha considerable en relación con las
prácticas actuales de los negocios.
¿A qué se debe que exista esta brecha entre lo que las empresas hacen y lo
que quieren hacer con respecto a la innovación? Tal parece que, a pesar
de que en muchos ejecutivos existe la conciencia que la innovación es el proceso clave para el crecimiento, persisten dudas sobre invertir en un proceso
que tiene costos altos y gran incertidumbre (Christensen y Overdorf, 1997).
Aun cuando algunos ejecutivos están dispuestos a apoyar programas de
innovación, falta gente con las habilidades y los “marcos conceptuales” adecuados. En las siguientes secciones explicaremos algunas de las mejores
prácticas que han seguido las empresas innovadoras.
3.9 Disciplina de la innovación
Tradicionalmente, al proceso de innovación se le asocia con cuatro factores: 1. creatividad, ya que es necesario generar ideas que permitan visuali-
66
Capítulo 3
Estrategia, innovación y competitividad
zar nuevas formas de crear valor; 2. espíritu emprendedor en la gente que
forma la empresa para tomar los riesgos que implica cambiar lo que la organización hace; 3. campeones que impulsen las nuevas ideas y venzan los
obstáculos impuestos dentro y fuera de la organización, y 4. un ambiente
libre donde se pueda actuar. Desafortunadamente, estos cuatro factores no
son suficientes para lograr que una empresa se vuelva innovadora, ya que la
creatividad en forma aislada puede originar ideas que nunca se aprovechan, el espíritu emprendedor puede llevarnos a esfuerzos fragmentados
que diluyan la energía de la organización, los campeones pueden volverse
“prima donnas” y empezar a pensar más en los objetivos de sus propias
iniciativas que en los objetivos globales de la organización, y el ambiente
libre puede llevar a una falta de control y a un desaprovechamiento de los
recursos de la organización.
Las empresas exitosas en innovar entienden a la innovación de acuerdo
con un nuevo paradigma compuesto por cuatro elementos:
1. Visión: entendida como los objetivos a largo plazo de una organización, es la brújula que permite orientar todos los esfuerzos de
una empresa, incluyendo aquellos que tienen que ver con la reinvención de sus procesos, productos y servicios.
2. Mapa del camino: para poder alcanzar la visión, las empresas requieren de un “mapa del camino” que les ayude a ver si van en la
dirección correcta. Este mapa debe identificar las tecnologías,
competencias, recursos y familias de productos/servicios requeridos para alcanzar la visión. Por ejemplo, en la empresa Rockwell, a
partir de un plan de negocios se generan planes de producto y proceso que posteriormente se traducen en un conjunto de necesidades tecnológicas para cada unidad de negocio. Luego se analizan
las necesidades de todas las unidades, se establecen prioridades y
se reduce el espectro a un conjunto de proyectos de investigación
críticos. Finalmente, a partir de los proyectos críticos se hace un
análisis de aquellos aspectos fundamentales que son comunes a
varios de ellos, buscando lograr sinergias, hasta identificar aquellos elementos tecnológicos “de empuje” sobre los cuales habrá que
concentrarse para apalancar dichos proyectos.
3. Enfoque de proceso: Drucker (1985) señala que la innovación es
más de “transpiración” que de “inspiración”. La innovación debe
verse más como una disciplina que como un evento casuístico, y
ello implica contar con procesos para identificar necesidades u
oportunidades de mercado para crear visiones de productos y tecnologías, y para desarrollar una estrategia para producir y vender
esos productos o tecnologías.
4. Competencias: las empresas requieren competencias para descubrir necesidades no articuladas de clientes potenciales, para detectar y administrar las ideas valiosas, para traducir rápidamente y a
3.10 Oportunidades y fuentes de la innovación
67
bajo costo estas ideas en productos/servicios, y para identificar
mecanismos que lograrán hacer que el proceso sea repetible y mejorable.
3.10 Oportunidades y fuentes de la innovación
Drucker (1985) señala que a pesar de lo mucho que se ha escrito sobre la
personalidad emprendedora, lo que la mayoría de los emprendedores tienen en común no es su personalidad, sino su compromiso a una práctica
sistemática de la innovación. En este contexto, la innovación es el medio
por el cual un emprendedor crea nuevos recursos para producir riqueza o
brinda a los recursos existentes un nuevo potencial para crear riqueza. En
otras palabras, las empresas emprendedoras son aquellas que permanentemente se esfuerzan por crear un cambio enfocado y orientado en el potencial económico o social de una organización. La innovación puede surgir de
un chispazo de genio (como el famoso “¡Eureka!” de Arquímedes). Sin embargo, la mayor parte de las innovaciones, especialmente las exitosas, surgen de una búsqueda consciente y orientada de oportunidades de innovación.
Drucker indica que existen cuatro áreas de oportunidad para la innovación: 1. ocurrencias inesperadas, como la que le aconteció a IBM cuando
sin pensarlo encontró que la máquina que acababa de desarrollar en la década de los años 30, con intención de venderla a los bancos, resultaba atractiva para las bibliotecas públicas; 2. incongruencias, como la que ocurría
con la industria del acero en los años 70 donde, a pesar del crecimiento del
mercado, todos los competidores tenían pérdidas millonarias por los altos
costos del capital; 3. necesidades de procesos, como las que estaban presentes en la industria de los periódicos, donde fue necesaria la convergencia
del linotipo y de la publicidad masiva para poder tener periódicos de alta
circulación a un costo razonable, y 4. cambios en la industria y el mercado,
como los que ocurrieron en la industria financiera con el surgimiento de
los inversionistas institucionales.
Asimismo, Drucker indica que estas oportunidades surgen como consecuencia de tres principales fuentes de innovación alrededor de la organización: 1. cambios demográficos, por ejemplo: número de personas, distribución de edades, educación, ocupaciones, localización geográfica y nivel
de ingresos; 2. cambios en las percepciones, donde los hechos no se alteran,
pero sí su significado, y 3. nuevo conocimiento. De estas tres fuentes, la más
confiable y predecible es la asociada con cambios demográficos. Un ejemplo fue lo que ocurrió en Europa después de la Segunda Guerra Mundial,
donde por primera vez se tuvo una población de jóvenes educados y con
poder adquisitivo, oportunidad que fue aprovechada por el Club Méditerranée para ofrecer un nuevo concepto de viaje. En cuanto a los cambios en
las percepciones, un ejemplo lo constituye la percepción de que cada vez
68
Capítulo 3
Estrategia, innovación y competitividad
somos menos sanos, a pesar de que los datos demuestran lo contrario. Ello
hizo que la empresa de mayor crecimiento en 1983 fuera una compañía de
equipos de ejercicio para el hogar. Finalmente, las innovaciones provenientes de nuevo conocimiento son a las que comúnmente la gente se refiere
cuando habla de innovación. Este tipo de innovaciones difiere de todas las
demás, ya que, como las “súper estrellas”, pueden ser temperamentales, caprichosas y dif íciles de dirigir. Además, son las que más tiempo requieren
para madurar (aproximadamente 50 años). Para ser efectivas, este tipo de
innovación demanda no únicamente un solo tipo de conocimiento, sino
varios. Por ejemplo, la computadora es el resultado de avances en la aritmética binaria; la concepción de Charles Babbage sobre una máquina calculadora (mediados del siglo xix); la máquina de tarjetas perforadas de Hollerith (1890); el tubo de audión (switch electrónico); la lógica simbólica de
Bertrand Russell y Alfred North Whitehead, y los conceptos de programación (ametralladoras en la Primera Guerra Mundial). Drucker indica que
aunque todo este conocimiento se encontraba disponible en 1918, la primera computadora digital apareció hasta 1946.
Las empresas existentes se concentran en defender sus mercados y no
aprovechan los mercados emergentes (Christensen y Overdorf, 1997). Dado que las nuevas oportunidades rara vez se ajustan a la manera como una
empresa se acerca al mercado y se organiza para servirlo, los innovadores
aprovechan esto y se quedan solos en el nuevo mercado por un tiempo
considerable.
El proceso sistemático y dirigido de la innovación comienza con un
análisis de las fuentes de nuevas oportunidades. Algunas oportunidades no
tendrán mucha relevancia, pero es importante analizar todas y hacerlo en
forma permanente. No hay que olvidar que la innovación es conceptual
y de percepciones, y por ello los innovadores deben salir y ver, preguntar y
escuchar. Los innovadores exitosos usan ambos lados del cerebro, ven los
hechos y a la gente (valores, expectativas, necesidades) y determinan qué
tiene que hacer la innovación para satisfacer la oportunidad, probando sus
hipótesis en el mercado.
Sobre todo, una innovación es más el fruto del trabajo que del genio.
Requiere conocimiento, con frecuencia ingenuidad y foco, ya que los innovadores se concentran en aquello en lo que tienen una competencia clave
(por ejemplo, Edison en el campo eléctrico). Sin embargo, si no hay diligencia, persistencia y compromiso, el talento, la ingenuidad y el conocimiento
no sirven de mucho.
3.11 Metodología de innovación
Jonash y Sommerlate (2000) desarrollaron una metodología para la innovación, la cual consta de las seis rutas (pathways) o elementos complementarios mostrados en la figura 3.6.
69
3.11 Metodología de innovación
Portafolio
estratégico
Métrica
motivadores
Cambio cultural
Proceso de
innovación
Administración
de recurso
Estructura
organizacional
FIGURA 3.6 Elementos de una metodología de innovación
1. Cambio cultural para sostener la innovación y el liderazgo en productos y tecnologías. Para poder innovar es necesario crear una
cultura propicia que reconozca la importancia que tiene la informática en el nuevo entorno de los negocios, y que haya un entendimiento sobre los procesos que están asociados con la innovación. El
cambio cultural implica lograr que la investigación y el desarrollo
dejen de ser un feudo al cual las áreas operativas perciben como un
centro de costos, para convertirse en una responsabilidad directamente ligada con la operación del negocio. Los proyectos deben
dejar de estar orientados únicamente a las necesidades del mercado actual y restringidos a presupuestos de corto plazo para pasar a
convertirse en proyectos dirigidos a generar valor. Lo anterior implica entender cómo la tecnología puede apoyar los objetivos estratégicos de una organización y lograr que se le considere como un
activo estratégico. Asimismo, la administración de proyectos de
innovación y su ejecución debe ser más dinámica, a través de redes
de conocimiento, y soportada por una infraestructura que permita
administrar ideas desde su concepción hasta que se incorporan en
productos y servicios.
2. Portafolio estratégico integrado. Las organizaciones, tanto públicas como privadas, deben conocer cuáles son las competencias sobre las que se habrá de sustentar el crecimiento a futuro, e identificar un portafolio adecuado de proyectos que traduzcan estas
competencias en productos y servicios. Anteriormente la mayor
parte del esfuerzo asociado con la definición de una estrategia de
tecnología se concentraba en tener un portafolio de proyectos que
tuviera un buen balance de tecnologías emergentes y maduras. Sin
70
Capítulo 3
3.
4.
5.
6.
Estrategia, innovación y competitividad
embargo, ahora el esfuerzo global debe abarcar también el desarrollo de competencias tecnológicas clave y la identificación de
fuentes y proveedores tecnológicos externos. La realización de estas
actividades requiere de la identificación de fuerzas, debilidades,
oportunidades y amenazas (SWOT), así como de brechas tecnológicas, pero también es necesario traducir la visión de la organización
en una visión sobre las tecnologías que van a apoyar el crecimiento
de la misma.
Proceso de innovación para traducir las ideas en productos/tecnologías/servicios comercializables. La innovación debe concebirse
como un proceso integral, estructurado y medible, que comienza
desde la generación de ideas hasta el desarrollo de productos/tecnologías comercializables. Esta tercera ruta del modelo (ver figura
3.7) puede concebirse como dos embudos: uno que tiene que ver
con el desarrollo de nuevas tecnologías, y otro con el de nuevos
productos y servicios. El mayor reto se da en la parte superior del
embudo, debido a la ambigüedad e incertidumbre que tiene asociados, así como en la parte inferior, donde se requiere de tomadores de decisión que puedan discernir entre las múltiples alternativas
posibles que existen para llevar la tecnología y los productos/servicios al mercado.
Administración integral de recursos. La innovación requiere de integrar adecuadamente recursos humanos, financieros y tecnológicos, de tal forma que se logre un apalancamiento en toda la organización. Esta ruta tiene que ver con la instrumentación de
mecanismos para contar con recursos financieros, como capital
semilla y capital de riesgo, para apoyar las iniciativas tecnológicas.
Asimismo, la ruta incluye también la creación de recursos físicos
que sirvan como plataforma para el desarrollo de proyectos de innovación. Con miras a apalancar de mejor manera estos recursos,
la comunicación y los procesos administrativos deben estar diseñados para catalizar la innovación.
Estructura organizacional de redes. Para obtener un mejor aprovechamiento del capital intelectual, se debe contar con una estructura organizacional que promueva la colaboración entre todos los
agentes que participan en el proceso de innovación. La dinámica
del entorno competitivo y tecnológico requiere que una organización tenga la capacidad de responder ágilmente ante los retos y las
oportunidades que se le vayan presentando. Por ello la empresa
debe instrumentar redes de recursos físicos, humanos y tecnológicos, dentro y fuera de la organización, que le permitan aprovechar
las capacidades individuales de la mejor manera posible.
Motivadores y métricas de desempeño. Se requiere de métricas
que midan qué tanto liderazgo se tiene en tecnologías de informa-
71
3.12 Mapa de la estrategia
Visión y estrategias de la empresa
DESARROLLO
Entendimiento
Conocimiento
Inteligencia
DE
Incertidumbre
Ambigüedad
Administración de
proyectos multifuncionales
TECNOLOGÍAS
Múltiples
alternativas
DESARROLLO
DE
Asignación de recursos
y planeación
PRODUCTOS
Y
SERVICIOS
Mercado
FIGURA 3.7 Proceso de innovación
ción, cuánto se está aprovechando este liderazgo en las aplicaciones del negocio y de qué manera la innovación está apoyando la
estrategia de la organización, con miras a evitar el aislamiento de
la función tecnológica del resto de la empresa. Dichas métricas
pueden catalogarse en cuatro tipos: 1. de resultados, que son las
que tienen que ver con lo que ocurre después que una acción clave
se ha realizado (por ejemplo, utilidades, participación de mercado);
2. de tiempo real, que tienen que ver con la ejecución misma del
proceso al cual están asociadas (por ejemplo, si se cumplió el tiempo
programado o se logró el costo pronosticado); 3. de avanzada, que
son medidas que buscan predecir el éxito mediante la medición de
factores asociados con el clima y la cultura organizacionales (por
ejemplo, motivación del personal), y 4. de aprendizaje, que miden
la mejora de indicadores clave (por ejemplo, aumento en el porcentaje de utilidades de nuevos productos o servicios).
3.12 Mapa de la estrategia
A lo largo del capítulo ha quedado de manifiesto la importancia que tiene
la estrategia como un elemento fundamental para poder competir exitosamente. En esta última sección describimos el concepto de “mapa de la estrategia” de Kaplan y Norton (2000), el cual brinda a las organizaciones una
herramienta para comunicar su estrategia y para identificar los procesos y
sistemas que les ayudarán a implementar esta estrategia. Este concepto tiene como base la metodología del Balanced Scorecard (BSC) desarrollada
72
Capítulo 3
Estrategia, innovación y competitividad
por estos autores, la cual ha tenido gran difusión en el ámbito empresarial,
ya que permite clarificar y traducir la visión y la estrategia de la organización; comunicar los objetivos estratégicos y los medidores asociados con
cada uno de ellos; establecer metas a corto plazo y alinear entre sí a las
distintas iniciativas estratégicas, y retroalimentar a la organización con respecto a su estrategia y a su instrumentación. Esta retroalimentación, que
sus creadores denominan como “de segundo ciclo”, no sólo ayuda a evaluar
si la estrategia se está instrumentando conforme a lo planeado, sino también si ésta sigue siendo viable y exitosa en función de los resultados obtenidos y de los cambios que ocurren en el entorno.
La necesidad de contar con un “mapa de la estrategia” en este nuevo
entorno competitivo se explica porque, si bien en la era industrial las compañías creaban valor mediante la transformación de insumos materiales en
productos terminados, en la era de la información, la transformación de
activos tangibles no es suficiente: para crear valor los negocios deben, cada
día más, crear, transformar, desplegar y utilizar activos intangibles, como
son las relaciones con los clientes, las habilidades y el conocimiento de sus
empleados, las tecnologías de información y una cultura corporativa que
promueva la innovación, la solución de problemas y el mejoramiento organizacional.
Un “mapa de la estrategia” muestra cómo una organización va a convertir sus iniciativas y recursos —incluyendo activos intangibles, como la
cultura corporativa y el conocimiento de sus empleados— en activos tangibles, así como las relaciones de causa-efecto por medio de las cuales ciertas
mejoras dan lugar a los resultados deseados. Como puede observarse en la
figura 3.8, un mapa de la estrategia describe:
•
•
•
•
El conocimiento, las habilidades y los sistemas que los empleados
de una organización necesitarán (su aprendizaje y crecimiento)…
…para innovar y construir las capacidades y eficiencias estratégicas (en los procesos internos de la organización)…
…que permitirán crear valor específico para los mercados (i.e.,
clientes) que se atienden, lo cual...
…eventualmente le permitirá a la organización crear mayor valor
para sus accionistas (resultados financieros).
Un “mapa de la estrategia” proporciona un marco conceptual para describir
cualquier estrategia en forma similar, como un estado de resultados o un
balance; sirve para describir el desempeño financiero de la organización. El
mapa incluye los objetivos, iniciativas y metas de la organización; las métricas o medidores con los cuales se va a evaluar el desempeño en el logro de
éstos, y las relaciones causa-efecto que son el fundamento de la dirección
estratégica. De esta forma, la estrategia se hace explícita, se puede comunicar y se puede medir el avance de su implementación y la validez de la dirección estratégica.
73
Aprendizaje
y crecimiento
Procesos
Cliente
Financiera
3.13 Comentarios finales
Crear valor para el accionista
Estrategia de crecimiento en utilidades
Desarrollar
la franquicia
Aumentar el valor
agregado a los clientes
Estrategia de productividad
Mejorar la
estructura de costos
Mejorar la utilización
de activos
Liderazgo en productos y servicios
Intimidad con el cliente
Excelencia en la operación
Aumentar el valor
agregado a los
clientes mediante la
administración de
relaciones con ellos
Desarrollar la
franquicia
a través de
innovaciones
Competencias
de los empleados
Lograr excelencia en la
operación mediante
mejoras en proceso de
logística y operaciones
Tecnología
Ser un buen
ciudadano mediante
mejoras en procesos
ambientales y
regulatorios
Cultura corporativa
FIGURA 3.8 Mapa de la estrategia
3.13 Comentarios finales
Una preocupación fundamental de toda organización es identificar mecanismos para reducir la brecha que existe entre tecnología y estrategia. La
rápida evolución que han tenido las tecnologías es un factor que afecta no
sólo las decisiones asociadas con la investigación y el desarrollo tecnológico en las organizaciones, sino que está íntimamente ligada con la estrategia
de la corporación. Sin embargo, muchas corporaciones fracasan en su intento por aprovechar las oportunidades que brinda la tecnología para obtener ventajas competitivas, cambiar la manera de competir y rediseñar los
procesos de la organización.
Un uso efectivo de la tecnología lleva consigo no solamente asignar un
cierto presupuesto para actividades de investigación y de ingeniería, sino
que implica cambios en la estructura organizacional, en los procesos administrativos asociados con la administración de la función tecnológica y, sobre todo, requiere un cambio cultural y una nueva actitud hacia la tecnología, de tal forma que ésta sea considerada como un medio clave para
mejorar la competitividad de la empresa.
Para poder administrar el uso de tecnologías en los procesos de negocios de una manera más efectiva, es necesario contar con profesionistas
que, por un lado, conozcan las nuevas tecnologías desde un punto de vista
74
Capítulo 3
Estrategia, innovación y competitividad
conceptual y práctico, y por otro, que entiendan el funcionamiento de los
diferentes aspectos que conforman a la empresa. Las empresas requieren
de gente especializada que tenga los conocimientos necesarios para idear
soluciones innovadoras, que le otorguen ventajas competitivas a las organizaciones en las cuales trabajan y que les ayuden a mejorar su productividad
y a rediseñar los procesos de los negocios, aprovechando las oportunidades
que brindan las tecnologías de proceso, producto e información. Por ello el
rol del ingeniero industrial es cada vez más importante en el entorno de
modernización que vive nuestro país y el resto del mundo.
EJERCICIOS PROPUESTOS
1. ¿Qué factores tecnológicos, sociales, económicos, etc., considera que han dado lugar a un
ambiente más competitivo?
2. ¿Qué es una estrategia y sobre qué aspectos se puede decidir?
3. ¿A qué se denomina frontera de productividad y cuál es su importancia?
4. Describa las tres posiciones de ventaja para defi nir su propuesta de valor.
5. En el capítulo se describe el caso de Continental Lite. Investigue un caso similar y analice
dónde ocurrió la incompatibilidad entre las posiciones de ventaja.
6. ¿Qué es la cadena de valor y cómo se clasifican sus actividades? Dé un ejemplo.
7. Analice el caso de éxito que tuvo Apple con la introducción del iPod. Investigue el caso y
descríbalo según lo conceptos de innovación descritos a lo largo del capítulo.
8. Revise y analice el artículo de M. Porter sobre conceptos y casos de estrategia (Porter, M. E.,
“What’s Strategy?”, en Harvard Business Review, 74, núm. 6, noviembre-diciembre de
1996:61-78).
9. Uno de los casos más interesantes sobre estrategia y operaciones lo representa la empresa
Walmart. Analice las características e innovaciones de la estrategia de Walmart.
Referencias
Christensen, C. M. y Overdorf, M. (1997). The
Innovator’s Dilemma: When New Technologies
Cause Great Firms to Fail. Harvard Business
School Press.
Davenport, T. H. (1993). Process Innovation:
Reengineering Work through Information
Technology, Harvard Business School Press.
Day, G. S. y Reibstein, D. J. (Eds.). (1997). Wharton
on Dynamic Competitive Strategy, John Wiley &
Sons.
Drucker, P. (1998). “The Discipline of Innovation”,
Harvard Business Review, mayo-junio de 1985 y
noviembre-diciembre de 1998.
Drucker, P. (1985). Innovation and Entrepreneurship:
Practice and Principles, Harper & Row Editores.
Hammer, M. y Champy, J. (1993). Reengineering the
Corporation: A Manifesto for Business Revolution, Harper Business.
Jonash, R. y Sommerlatte, T. (1999). The Innovation
Premium, Perseus Books.
Kaplan, R. S. y Norton, D. P. (2000). “Having Trouble
with your Strategy? Then Map IT”, Harvard
Business Review, septiembre-octubre del 2000.
Kaplan, R. S. y Norton, D. P. (2000). The Strategy
Focused Organization, Harvard Business School
Press.
Referencias
Porter, M. y Millar, V. E. (1985). “How Information
gives you Competitive Advantage”, Harvard
Business Review, julio-agosto de 1985.
Porter, M. (2001). “Strategy and the Internet”,
Harvard Business Review, marzo del 2001.
Porter, M. (1996). “What is Strategy?”, Harvard
Business Review, noviembre-diciembre de 1996.
75
Zozaya Gorostiza, C. (1991). “Use of AI-Based Tools
in a Mexican Automotive Part Supplier”, en
Cantú Ortiz, F. (Ed.). Operational Expert
Systems Applications in Mexico. Pergamon
Press.
CAPÍTULO
4
AUTOR:
Dr. Marcelo Mejía Olvera
Algorítmica y programación
4.1 Solución automatizada de problemas
4.2 Algoritmos
4.3 Programación
4.4 Ingeniería de software
4.1 Solución automatizada de problemas
Una característica de las personas, y en especial de los ingenieros, es que
les disgusta realizar labores repetitivas de las que no obtienen ninguna satisfacción. Es por esto que a lo largo de la historia se han inventado dispositivos que permiten remplazar o auxiliar algunas habilidades humanas y
automatizar estas labores para resolver problemas con mayor rapidez y con
menor probabilidad de error. Para solucionar un problema se parte de una
idea, se diseña un método preciso y se construye un dispositivo que lo automatiza. A continuación se mencionan brevemente algunos de estos dispositivos que dieron lugar, con el paso del tiempo, al desarrollo de las computadoras.
Una de las primeras máquinas aritméticas operacionales, la Pascalina,
fue creada por Blaise Pascal en 1642 para ayudar a su padre a sumar cantidades de dinero y facilitar su trabajo como recolector de impuestos. Pascal
se preocupaba por la gran susceptibilidad al error que se tenía al hacer
cuentas largas y decidió que era necesario crear un artefacto capaz de automatizar el metódico y tedioso trabajo de hacer sumas y restas. De hecho, la
máquina de Pascal sólo podía sumar; para restar se usaban técnicas de
complemento, como las utilizadas por las computadoras actuales, mientras
que las multiplicaciones y divisiones se realizaban mediante una serie de
sumas o restas. Más tarde, en 1673, Gottfried W. Leibniz inventó una máquina para calcular (la rueda de Leibniz) que podía efectuar las cuatro operaciones aritméticas fundamentales de forma totalmente automática.
78
Capítulo 4
Algorítmica y programación
En 1801, Joseph Jacquard perfeccionó un telar en el que un programa
codificado en binario y escrito en tarjetas perforadas controlaba el patrón
de tejido de la tela. El programa automatizaba el hilado de patrones complejos e hizo posible que un proceso artesanal se convirtiera en uno industrial; en 1812 funcionaban en Francia 11 000 telares de este tipo. Las tarjetas perforadas del telar de Jacquard se utilizarían después en los diseños de
Babbage y en las máquinas de Hollerith.
En la primera mitad del siglo xix la mayoría de los cálculos en el contexto de la astronomía, la navegación, la ingeniería y la ciencia en general se
hacían con base en tablas matemáticas: de logaritmos, de funciones trigonométricas y estadísticas. Estas tablas las generaban equipos de matemáticos que trabajaban con calculadoras primitivas. En 1822, después de construir un prototipo funcional pequeño, Charles Babbage propuso construir
una máquina de diferencias para automatizar el cálculo e impresión de estas tablas, y así eliminar los (muchos) errores que contenían. La máquina
debía calcular valores sucesivos de una función aproximándola con
polinomios y usando el método de diferencias finitas que involucra sólo
sumas sucesivas. Esta máquina, que debía utilizar diferencias hasta de sexto
orden y números de 18 dígitos, no estaba aún terminada cuando Babbage
tuvo la idea de construir una más sofisticada: la máquina analítica. Aunque
este proyecto también fue abandonado por problemas financieros y el excesivo perfeccionismo de Babbage, tiene el enorme mérito que la organización de la máquina analítica es, a grandes rasgos, muy parecida a la de las
computadoras actuales. La máquina analítica, conforme a la tecnología de
su época, era una computadora mecánica movida por engranes que debía
almacenar y procesar información. Augusta Ada King, condesa de Lovelace, escribió programas en tarjetas perforadas para esta computadora, el
primero de los cuales calculaba la serie de Fibonacci.
A finales del siglo xix, Herman Hollerith combinó la vieja tecnología
de tarjetas perforadas con la nueva tecnología de bulbos (tubos de vacío)
para producir una máquina capaz de ordenar, clasificar y contar. Utilizando
56 de estas máquinas se procesaron los datos del censo de 1890 de Estados
Unidos en sólo seis meses, en lugar de tardar siete años y requerir cientos
de empleados, como sucedió en el censo anterior. La información de cada
individuo se codificaba en tarjetas mediante orificios que se hacían en ciertas posiciones, dependiendo del dato que se estuviera almacenando. Por
ejemplo, unos agujeros se hacían para denotar que un individuo de la población era mujer, y otros, en posiciones diferentes, si era hombre. Hollerith fundó una empresa, la cual después formó parte de un consorcio que
en 1924 cambió su nombre a IBM para producir y vender sus máquinas.
Aunque estas máquinas no eran verdaderas computadoras, se usaron para
almacenar y procesar información, por ejemplo, de inventarios o contabilidad, en una época en la que empezaba a sentirse una mayor necesidad por
manejar grandes cantidades de datos de manera exacta y en poco tiempo.
4.1 Solución automatizada de problemas
79
En las décadas de 1930 y 1940 se construyeron en Estados Unidos grandes calculadoras para responder a las enormes necesidades de cálculo del
Ejército, principalmente en lo referente a cálculos de balística. En esa época
las tablas de tiro de proyectiles se volvieron un instrumento indispensable
para maximizar la eficacia de la artillería, ya que permitían ajustar el ángulo
de disparo en función de numerosos parámetros, como el tipo de proyectil,
la localización del objetivo, la velocidad del viento y la temperatura. Dado
que para construir estas tablas se requería calcular miles de trayectorias y
cada una requería de muchos cálculos, que eran muy tardados si se realizaban mediante calculadores humanos (tres días por trayectoria por persona), el gobierno de Estados Unidos financió varios proyectos en diferentes
universidades para automatizar la construcción de estas tablas.
En el MIT, Vannevar Bush construyó, entre 1930 y 1931, una computadora analógica, el analizador diferencial, para resolver sistemas de ecuaciones diferenciales. Una copia de esta máquina, construida en 1934 por la
Escuela Moore de Ingeniería Eléctrica de la Universidad de Pensilvania, en
colaboración con el MIT, tardaba entre 15 y 30 minutos en calcular una
trayectoria, pero se necesitaban entre una y dos horas para recablear la
máquina en cada nueva operación.
En la Universidad de Harvard, Howard Aiken construyó, entre 1937 y
1944, la Harvard Mark I con fondos de IBM y de la Marina estadounidense.
Esta computadora era electromecánica, constaba de 3300 relevadores y su
diseño estuvo influido por la máquina analítica de Babbage. Aunque era
muy lenta (el analizador diferencial era cinco o seis veces más rápido en el
cálculo de una trayectoria), la Mark I se utilizó para resolver problemas de
balística y diseño naval. En 1945, Grace Hopper removió de la Mark II el
primer “bug” (una polilla) que provocaba que la computadora fallara.
En la Escuela Moore de la Universidad de Pensilvania, John William
Mauchly y John Presper Eckert construyeron la ENIAC (Electronic Numerical Integrator and Computer). Esta máquina constaba de 17 468 bulbos y
miles de cables, consumía 140 kilowatts, pesaba aproximadamente 30 toneladas, medía 2.4 m de altura, 90 cm de ancho y casi 30 m de longitud, y
se encontraba en un cuarto de 9 por 15 metros. La ENIAC era en promedio
500 veces más rápida que la Harvard Mark I, ya que no realizaba movimientos mecánicos; en su demostración pública, el 15 de febrero de 1946,
calculó en 20 segundos la trayectoria de un proyectil, operación que tardaba 30 minutos en el analizador diferencial. Posteriormente, la ENIAC se
utilizó para validar y mejorar el modelo matemático de la explosión de la
bomba H. Sin embargo, como en el analizador diferencial, para programar
la ENIAC era necesario cambiar la configuración de la máquina, es decir,
los usuarios debían conectar f ísicamente los circuitos de la máquina para
que ésta ejecutara una nueva secuencia de operaciones.
Conscientes de las limitaciones de programación de la ENIAC, sus
diseñadores concibieron la idea de almacenar el programa y los datos den-
80
Capítulo 4
Algorítmica y programación
MEMORIA
UNIDAD CENTRAL DE PROCESAMIENTO
UNIDAD DE
ENTRADA
Unidad de control
Registros
UNIDAD DE
SALIDA
Unidad aritmética lógica
FIGURA 4.1 Modelo de von Neumann
tro de la memoria de la misma computadora. En agosto de 1944, Mauchly
y Eckert propusieron la construcción de una nueva máquina denominada
EDVAC (Electronic Discrete Variable Automatic Computer) basada en esta idea. John von Neumann documentó y elaboró las ideas de los creadores
de la ENIAC sobre el programa almacenado en el “First Draft (of a Report
on the EDVAC)”, publicado el 30 de junio de 1945, donde también se proponía el uso de una unidad de control (que organizara el funcionamiento
interno de la máquina) y del sistema numérico binario. La estructura de la
computadora que se desprende de este documento se conoce popularmente como modelo de von Neumann. Prácticamente todas las computadoras digitales que se han construido desde entonces se basan en esta
arquitectura (figura 4.1); sólo ha cambiado la tecnología utilizada para la
construcción del hardware: primero bulbos, luego transistores (1956),
después circuitos integrados (1964) y fi nalmente microprocesadores
(1974).
Los circuitos integrados están constituidos, entre otros componentes,
por transistores interconectados dentro de un chip de silicio (semiconductor). Gordon Moore, uno de los fundadores de Intel, constató en 1974 que
el número de transistores integrados en un mismo chip se duplicaba cada
18 meses. Esta evolución en la miniaturización de los componentes dio
origen a la creación de los microprocesadores y condujo a la microelectrónica hacia el campo de la nanotecnología (tecnología a la escala del nanómetro, 109 m).
El surgimiento de las computadoras no sólo tiene antecedentes en Estados Unidos, sino también en Europa. En Alemania, Konrad Zuse construyó, en 1941, la primera computadora digital (binaria) de propósito general controlada mediante programa: la Z3. Esta computadora utilizaba
relevadores electromagnéticos, sus versiones previas se diseñaron para re-
4.2 Algoritmos
81
solver sistemas de ecuaciones simultáneas. Por otra parte, en Inglaterra se
construyó, en 1943, la primera máquina completamente electrónica: Colossus, compuesta por 1800 bulbos en su versión original. Maxwell Newman y sus colegas de Bletchley Park —una vieja casa entre Oxford y Cambridge— diseñaron esta máquina específicamente para descifrar los
mensajes secretos de los alemanes durante la Segunda Guerra Mundial.
También en Inglaterra se construyeron las primeras computadoras electrónicas con programa almacenado: Manchester Mark 1 (Universidad de
Manchester, 1948) y EDSAC (Electronic Delay Storage Automatic Computer, Universidad de Cambridge, 1949).
El programa almacenado en una computadora es una serie de instrucciones que le indican qué debe realizar para obtener un resultado. Aunque
la palabra computadora hace pensar en cálculos matemáticos, en realidad
sólo una pequeña parte de las instrucciones que la computadora es capaz
de interpretar y ejecutar son operaciones aritméticas básicas. Las computadoras no son simples máquinas de cálculo, sino más bien máquinas lógicas que procesan información, que organizan, que establecen un orden. Por
esta razón, a las computadoras en Francia se les dio el nombre de ordenadores, y a la computación se le conoce como informática, que es el procesamiento automático de información.
4.2 Algoritmos
La noción de algoritmo está íntimamente vinculada con la programación
de las computadoras, ya que un programa no es más que la especificación de
un algoritmo mediante la utilización de las instrucciones que puede ejecutar una computadora. En términos generales, algoritmo se define como una
secuencia finita de operaciones básicas que permiten resolver un problema. De manera específica, un problema es un modelo genérico (como la
multiplicación de dos números enteros); una instancia es un caso especial
de un problema con datos particulares (por ejemplo, 24 18), y un algoritmo resuelve un problema si encuentra la solución para cualquiera de sus
instancias.
4.2.1 Ejemplos de algoritmos de multiplicación
Para resolver un determinado problema pueden existir diversos algoritmos.
A continuación se describen diferentes algoritmos para multiplicar dos números enteros positivos. En el algoritmo de multiplicación larga se multiplica cada dígito del primer número por cada dígito del segundo y se suman
los resultados parciales corridos de manera adecuada (figura 4.2a). En la
escuela primaria se enseña este algoritmo, pero se modifica de tal manera
que no todos los productos parciales se suman hasta el final (figura 4.2b).
Para ejecutar este algoritmo las operaciones básicas que se utilizan son
la suma de números enteros y la multiplicación de todos los posibles pares
82
Capítulo 4
Algorítmica y programación
24
18
24
18
32
160
40
200
192
24
432
432
a) Multiplicación larga
b) Multiplicación tradicional
FIGURA 4.2 Algoritmo de multiplicación tradicional
de dígitos, razón por la cual se deben memorizar las tablas de multiplicación. En 1617 el escocés John Napier (1550-1617) inventó unos dispositivos, denominados “huesos” por el material que se usó para su construcción
(huesos, cuernos y marfil eran los materiales idóneos para obtener un dispositivo de mejor calidad), donde imprimió las tablas para facilitar el algoritmo de multiplicación.
Un algoritmo de multiplicación que no requiere el conocimiento de
todas las tablas es el de Peasant, que sólo requiere saber sumar y ser capaz
de multiplicar por 2 un número y dividir otro entre 2. Este algoritmo, conocido por los antiguos egipcios como mediación y duplicación, se muestra
0
1
2
3
4
5
6
7
8
9
2
4
0
0
2
0
4
0
4
0
8
1
6
0
2
1
8
1
6
2
0
1
0
2
2
1
4
2
4
1
8
3
6
1
2
3
8
FIGURA 4.3 Huesos de Napier
6
4.2 Algoritmos
Mediaciones
83
Duplicaciones
18
24
9
48
4
96
2
192
1
384
(+)
(+)
24 18 48 9 = 48 (8 + 1) 48 8 + 48
96 4 + 48 192 2 + 48 384 1 + 48
384 + 48 432
FIGURA 4.4 Algoritmo de multiplicación por mediación y duplicación
en la figura 4.4. En cada paso del algoritmo se multiplica uno de los números, b, por 2 y se divide el otro, a, entre 2 (descartando cualquier fracción
resultante); el algoritmo se termina cuando a es igual a 1 y el resultado es la
suma de los valores de b cada vez que el valor de a es impar.
Cuando los algoritmos con que se cuenta para resolver un problema
son complejos, en ciertas ocasiones puede ser preferible utilizar un algoritmo simple que regrese un resultado aproximado. Por ejemplo, en 1590,
Napier descubrió los logaritmos, un artificio que transforma multiplicaciones en sumas y que durante mucho tiempo se usó para realizar cálculos
aproximados utilizando tablas impresas o reglas de cálculo.
4.2.2 Complejidad
Si se conocen varios algoritmos para resolver un problema, generalmente
se debe utilizar el más eficiente. Por esto es necesario conocer la complejidad de los algoritmos, que se mide de acuerdo con la cantidad de recursos
(tiempo y/o espacio) que emplean en función del tamaño n del problema.
Tradicionalmente, se determina la complejidad temporal de los algoritmos
en el peor caso —mayor número de pasos posible en cualquier instancia—,
aunque algunas veces se determina la complejidad en el caso promedio:
número esperado de pasos de acuerdo con una distribución de probabilidad de las posibles instancias del problema. Por ejemplo, en el caso de una
búsqueda en un arreglo ordenado de n elementos, el algoritmo de búsqueda secuencial requiere n comparaciones en el peor caso, y n/2 comparaciones en el caso promedio, mientras que el de búsqueda binaria requiere sólo
log2 n comparaciones en el peor caso.
La notación big-oh es una medida asintótica que se utiliza para medir
el desempeño de los algoritmos en instancias grandes de problemas. Se
dice que un algoritmo corre en O(f(n)) si el tiempo requerido por el algoritmo para encontrar la solución en el peor caso es cuando mucho igual a c f(n) para algún número c, y para toda n mayor a algún n0. En la tabla 4.1 se
84
Capítulo 4
Algorítmica y programación
TABLA 4.1 Complejidad asintótica de los
algoritmos
O(f (n))
nombre
O(1)
constante
O(log n)
logarítmica
O(n)
lineal
O(n log n)
n log n
O(nm)
polinomial
O(2n) o O(n!)
exponencial
muestran las funciones f(n) frecuentemente encontradas al evaluar la complejidad temporal de un algoritmo.
Comúnmente se acepta que un algoritmo es bueno si su complejidad
temporal en el peor caso está acotada por una función polinomial. Para
expresar esta función en notación big-oh sólo se considera el término
dominante, dado que se supone que n es grande; así, 1000n 100n2 0.01n3 es O(n3). En algoritmos con complejidad exponencial, la función f(n)
crece tan rápido que no puede acotarse por medio de una función polinomial (tabla 4.2).
A primera vista puede parecer que, dado que las computadoras son
cada vez más rápidas, la complejidad exponencial de un algoritmo no importa mucho, ya que el tiempo real consumido en la computadora será insignificante en cualquier caso. Sin embargo, en la realidad esto no es verdad. Por ejemplo, si cada paso de un algoritmo se realiza en 1 nanosegundo
(109 s), un algoritmo que requiera n! pasos se ejecutará en 3.6 ms si n es
igual a 10, pero tardará ¡más de 77 años! si n es igual a 20.
Desafortunadamente existen problemas para los que no se conocen algoritmos que los resuelvan en tiempo polinomial, como muchos problemas
clásicos de optimización combinatoria. En este tipo de problemas existe un
número finito de soluciones factibles que satisfacen ciertas restricciones, y
TABLA 4.2 Crecimiento explosivo de la complejidad de algoritmos exponenciales
f(n)
n ⴝ 10
n ⴝ 100
n ⴝ 1000
n
10
102
103
n2
102
104
106
n3
103
106
n
3
2
n!
109
10
30
1.27 10
1.07 10301
3.6 106
9.33 10157
4.02 102567
4.2 Algoritmos
85
se busca aquella que minimiza (o maximiza) una función objetivo. Por
ejemplo, en el caso del problema de un agente viajero, el cual necesita encontrar la ruta más corta que debe seguir para visitar exactamente una vez
cada ciudad de una lista dada y regresar al punto de partida, todas las soluciones factibles de este problema son permutaciones de la lista en las que
aparece una sola vez cada ciudad, y la solución óptima es aquella permutación que define el circuito de distancia mínima. El único algoritmo que
encuentra la solución óptima para todas las instancias de estos problemas
se basa en la enumeración exhaustiva de todas las soluciones factibles y es,
por lo tanto, de tiempo exponencial.
Los problemas con algoritmos de tiempo exponencial no tienen solución práctica exacta, ya que el tiempo es limitado. Por esta razón, para resolver instancias particulares de estos problemas se utilizan algoritmos
heurísticos eficientes que obtienen una solución óptima o cercana a ella
para muchas de las instancias, pero no todas. Estos algoritmos se denominan heurísticos, ya que frecuentemente se fundamentan en reglas empíricas basadas en intuición o sentido común y en conocimiento específico de
un problema particular. Para el caso del problema del agente viajero, las figuras 4.5 y 4.6 ilustran el funcionamiento de dos heurísticas. En ambos
casos se supone que la distancia entre las ciudades es la que se muestra en
la matriz de la figura 4.5b. La primera heurística se conoce como “visita del
vecino más cercano” y consiste en elegir siempre, como siguiente escala, la
ciudad que quede más cerca de la ciudad actual y que no haya sido aún visitada. En la figura 4.5, si se parte de A primero se visita C (que es la más
cercana a A), luego D (que es la más cercana a C), después D, E y B, para
finalmente cerrar el circuito regresando a A.
La segunda heurística: “inserción del vecino más lejano”, proporciona
generalmente mejores resultados; inicia seleccionando las dos ciudades
más alejadas entre sí y formando un primer circuito (triángulo) con la ciudad cuya menor distancia a cualquiera de ellas es máxima. Repetidamente,
y hasta terminar con todas las ciudades, se incorpora al circuito la ciudad
cuya distancia mínima a cualquier otra ciudad que ya se encuentra en el
circuito sea máxima; esta ciudad se inserta en el circuito en el lugar que
resulte en un menor incremento en su longitud total: suma de las longitudes de las dos aristas que se insertan en el circuito menos la longitud de la
que se remueve. En la figura 4.6 se empieza con B y E, ya que son las ciudades más alejadas entre sí. En seguida se forma el primer circuito con C, ya
que su distancia mínima a los dos nodos iniciales (85 a B) es mayor que las
distancias mínimas de A (80 a B) y D (45 a E). La longitud de este primer
circuito es de 235 unidades. Posteriormente se introduce A en el circuito,
ya que su distancia mínima a un nodo del circuito actual (65 a C) es mayor
que la de D (45 a E); se inserta A entre B y E para aumentar en sólo 15 la
longitud del circuito; si se insertara entre B y C aumentaría en 60, y entre C
y E aumentaría en 70. Finalmente se incorpora D al circuito. Esta heurística
86
Capítulo 4
E
A
D
C
Algorítmica y programación
A
B
C
D
E
A
0
80
65
85
95
B
80
0
85
135
160
C
65
85
0
50
90
D
85
135
50
0
45
E
95
160
90
45
0
B
a) Topología (ciudades)
b) Matriz de distancias entre las ciudades
E
E
A
A
D
D
C
C
B
B
c) Primer paso
d) Segundo paso
E
E
A
A
D
D
C
C
B
B
e) Tercer paso
f) Cuarto paso
E
A
D
C
B
FIGURA 4.5 Heurística de visita del vecino más cercano
87
4.2 Algoritmos
E
E
E
A
A
A
D
D
D
C
C
C
B
B
B
a) Topología (ciudades)
b) Primer paso
c) Segundo paso
E
E
A
A
D
D
C
C
B
B
d) Tercer paso
e) Cuarto paso
FIGURA 4.6 Heurística de inserción del vecino más lejano
trata de construir la forma aproximada del circuito final desde los primeros
pasos del algoritmo.
4.2.3 Técnicas generales para algoritmos de tiempo polinomial
El algoritmo de “visita del vecino más cercano” es un ejemplo de una heurística miope o voraz (greedy), en la cual se toma una serie de decisiones y
en cada una de ellas se selecciona la acción que parece mejor en ese momento. En el caso del problema del agente viajero, una heurística miope no
da generalmente buenos resultados, pero en otros casos un algoritmo voraz
sí resuelve el problema; por ejemplo, el algoritmo de Kruskal (figura 4.7),
que construye un árbol mínimo de recubrimiento sobre una gráfica. Dada
una gráfica formada por nodos y aristas, el algoritmo de Kruskal selecciona
un subconjunto de las aristas de la gráfica original para construir un árbol
(subgráfica sin circuitos) que contenga todos los nodos y cuya longitud total sea mínima. Este algoritmo selecciona en cada paso la arista con menor
longitud que no construya un circuito, y se detiene cuando se han incorporado todos los nodos al árbol. En la figura 4.7 se inicia con la arista E-D
(longitud 45) y a continuación se seleccionan las aristas C-D (50), A-C (65)
y A-B (80).
Además de la técnica voraz, otra forma genérica de atacar un problema
en tiempo polinomial es la de “divide y vencerás”. La idea general de esta
88
Capítulo 4
Algorítmica y programación
E
E
E
A
A
A
D
D
D
C
C
C
B
B
B
b) Primer paso
a) Topología (ciudades)
c) Segundo paso
E
E
A
A
D
D
C
C
B
B
d) Tercer paso
e) Cuarto paso
FIGURA 4.7 Algoritmo de Kruskal: árbol mínimo de recubrimiento
técnica es dividir el problema en subproblemas, resolverlos y combinar sus
soluciones en una solución global. Como ejemplo del uso de esta técnica,
en la figura 4.8 se ilustra el problema de determinar la ruta más corta entre
un nodo inicial (A) y uno de dos nodos finales (H o I) mediante programación dinámica. En este contexto el término programación se refiere a la
planeación de actividades (determinación de aquellas que producen la mejor solución), y el término dinámica hace alusión a que en sus primeras
aplicaciones la variable tiempo indicaba el paso de una etapa a otra (secuencia de decisiones en el tiempo). El algoritmo se desarrolla en etapas:
inicia en los nodos que se encuentran directamente conectados a los nodos
finales y se dirige hacia el nodo inicial, se basa en el principio de “optimalidad” de Richard Bellman, que establece que si un nodo particular se encuentra en la ruta óptima buscada, entonces el camino más corto entre él y
el destino también se encuentra en la ruta óptima. En la primera etapa se
determina que la ruta más corta entre E y uno de los destinos es la arista
E-H, con una distancia de 3 (unidades); para F, es la arista F-I, con una distancia de 5, y para G, es la arista G-H, con una distancia de 8. En la segunda
etapa se utilizan estos resultados para determinar que la ruta más corta
entre B y uno de los destinos es la trayectoria B-E-H, con una distancia de
15; para C es la trayectoria C-E-H, con una distancia de 9, y para D es la
trayectoria D-F-I, con una distancia de 17. Finalmente, en la tercera etapa
resulta que el camino más corto entre A y uno de los destinos es la trayectoria A-C-E-H.
89
4.2 Algoritmos
12
B
14
A
9
6
2
5
C
10
4
1
12
D 11
E
3
E
3 H
9 I
H
(3)
F-I
(5)
G-H
(8)
F
6
F
E-H
6 H
5 I
5
G
8
G
I
8 H
10 I
10
b) Primera etapa
a) Topología y distancias
B
12
14
E (+3)
F (+5)
B-E-H
6
10
4
E (+3)
F (+5)
G (+8)
C-E-H
12
11
F (+5)
G (+8)
D-F-I
(15)
C
(9)
(1 paso antes del destino)
A
2 B (+15)
5 C (+9 )
1 D (+17)
d) Tercera etapa
A-C-E-H
(14)
(3 pasos antes del destino)
D
c) Segunda etapa
(17)
(2 pasos antes del destino)
FIGURA 4.8 Programación dinámica: ruta más corta
4.2.4 Computabilidad
En la sección anterior se introdujo la noción de complejidad de los algoritmos, es decir, la eficiencia con la cual pueden resolverse diferentes problemas. Ahora se verá que existen problemas que no pueden resolverse; por
ejemplo, la demostración de teoremas o la prueba de la corrección de programas. La teoría de la no resolubilidad tiene que ver con la existencia o
inexistencia de algoritmos para resolver problemas que tengan una infinidad de instancias.
Antes del inicio de la Segunda Guerra Mundial, Alan Turing creó una
abstracción lógica que se conoce ahora como máquina de Turing y que
capta la estructura teórica de los algoritmos que pueden resolverse en una
computadora: cualquier algoritmo que pueda diseñarse para resolver un
problema se puede programar en una máquina de Turing; cualquier problema que no pueda resolverse mediante una máquina de Turing no tiene
solución algorítmica.
Una máquina de Turing consta de un autómata que puede estar en un
número finito de estados, una cantidad ilimitada de cinta dividida en celdas
y un dispositivo de lectura/escritura (figura 4.9a). El autómata lee un símbolo de la cinta y, en función del estado en el que se encuentra y del símbolo
leído, escribe un símbolo en la cinta, desplaza el dispositivo de lectura/escritura y cambia de estado. En la figura 4.9b se muestra la tabla de transi-
90
Capítulo 4
Algorítmica y programación
Estado/evento
0
1
1 (inicial)
parar
0, I, 2
2
1, I, 3
1, I, 2
3
1, D, 4
1, I, 3
4
0, D, 5
1, D, 4
5
parar
0, I, 2
Autómata
Dispositivo de lectura/escritura
1
0
1
1
0
Cinta
0
a) Componentes
b) Tabla de transiciones
0
0
0
0
0
1
1
0
0
0
0
c) Estado inicial
1
1
1
1
0
0
0
d) Estado final
FIGURA 4.9 Máquina de Turing
ciones del autómata de una máquina de Turing que duplica el número de
unos que encuentra inicialmente en la cinta; se muestran también los estados inicial (figura 4.9c) y final (figura 4.9d) de la cinta para una instancia
particular del problema. El autómata se encuentra inicialmente en el estado 1. La tabla de transición indica qué acciones se toman en función del
estado y del símbolo en la cinta. Por ejemplo, si el autómata está en el estado 3 y en la cinta lee un 0, entonces escribe un 1 en la cinta, desplaza el
dispositivo de lectura/escritura una celda a la derecha (D) y pasa al estado 4;
si en el estado 3 el autómata lee un 1, entonces desplaza el dispositivo de
lectura/escritura una celda a la izquierda (I) y pasa al estado 4. La máquina
de Turing terminará el algoritmo (se detendrá) cuando el autómata se encuentre en el estado 1 o en el estado 5 y lea un 0 de la cinta. Es importante
mencionar que un problema que no tiene solución algorítmica, es decir,
que no es computable, es determinar si una máquina de Turing arbitraria se
detendrá al llegar a su estado final para cualquier estado inicial de la cinta.
4.2.5 Problemas de rango y precisión
Las computadoras actuales trabajan en base 2 por simplicidad. Al procesar
únicamente dígitos binarios (bits, binary digits), se pueden utilizar componentes f ísicos sencillos, como los transistores que, funcionando como interruptores que dejan pasar o no la corriente eléctrica, pueden representar
los dígitos 0 y 1. Además, con componentes electrónicos que sólo pueden
estar en dos estados se logra una mayor inmunidad al ruido. Cuando se
trabaja en base 2, los algoritmos también son sencillos; por ejemplo, las
tablas de multiplicar son mucho más simples en base 2 que en base 10.
91
4.2 Algoritmos
A
A
B
C
S
0
0
0
0
0
1
0
1
1
0
0
1
1
1
1
0
S
B
C
a) Circuito lógico electrónico
a) Tabla de verdad
FIGURA 4.10 Sumador binario de dos bits
Todo lo que nos interesa calcular puede hacerse con funciones lógicas
(booleanas) y éstas pueden implementarse con circuitos electrónicos de
dos estados; como ejemplo, la figura 4.10 muestra un circuito lógico que
implementa la operación aritmética de suma de dos bits y su tabla de verdad.
El número finito de bits que se utilizan para representar los números,
enteros y reales, en base 2 es una fuente de errores que debe considerarse al
resolver ciertos problemas numéricos. Si se utilizaran 8 bits para representar los números enteros no negativos, sólo podrían tenerse 28 números
diferentes, y el intervalo de valores permitidos sería del 0 al 255. Para aumentar el intervalo de enteros posibles, los lenguajes modernos de programación utilizan enteros (int) de 32 bits y enteros largos (long) de 64 bits. Sin
embargo, el problema persiste, ya que el intervalo sigue siendo finito (aunque mayor). Para poder representar también números negativos, la mitad
del intervalo se asigna a estos números y la otra mitad a los positivos. En la
codificación de números negativos en complemento a 2 se niegan (invierten) todos los bits de un número y se suma 1 al resultado para obtener el
correspondiente valor negativo. En esta codificación, normalmente utilizada en las computadoras, el bit más significativo indica el signo del número:
negativo si es 1 y positivo si es 0. El intervalo de valores de un entero de n bits
en complemento a 2 va de 2n 1 a 2n 1 1.
Para representar números reales, en lugar de asignar un número fijo de
bits para la parte entera y otro número fijo de bits para la parte fraccionaria,
dejando el punto (imaginario) en una posición fija, se utiliza una notación
llamada de punto flotante. En esta codificación, un número real se representa como (1) s 0.f 2e. Se utiliza 1 bit para el signo (s), un número
fijo de bits para la fracción ( f ) y otro número fijo de bits para el exponente (e). La fracción generalmente debe estar normalizada, es decir, debe ser
un número mayor o igual a 1 y menor a 2. Para no desperdiciar un bit que se
sabe siempre es 1, las computadoras no almacenan este bit, sino que lo suponen implícito, por lo que el número representado es en realidad (1) s (1.f ) 2e.
92
Capítulo 4
Algorítmica y programación
La norma IEEE 754, que data de 1985, establece que para un número
de precisión simple (float) se asigna 1 bit para el signo, 23 bits para la fracción y 8 bits para el exponente, que se representa en exceso 127; mientras
que para un número de doble precisión (double), se asigna 1 bit para el
signo, 52 bits para la fracción y 11 bits para el exponente en exceso 1023. La
norma especifica que un número de punto flotante de precisión simple representa el valor (1) s (1.f ) 2e 127, si 1 < e < 255. Esto significa que
el mayor número float representable es (1 1 223) 2254 127, que es
aproximadamente 3.4 1038. Si e es igual a 255 y f es diferente de 0, se tiene
algo que no es un número real (Not A Number, NaN), como la raíz cuadrada de un número negativo. Por otra parte, si e es igual a 255 y f es igual a 0,
se tiene la representación de (1) s infinito. Los números muy pequeños (con e igual a 0) no se normalizan y representan (1) s (0.f ) 2126, por lo que el menor número float que puede tenerse es 223 2126,
que es aproximadamente igual a 1.4 1045.
La representación de los números reales en una computadora causa
que, en algunos problemas numéricos, los resultados obtenidos después de
realizar diferentes cálculos en punto flotante no sean exactos debido a la
precisión limitada de los números, determinada por el número de bits destinados a la fracción f; un ejemplo de este tipo de errores se muestra en la
figura 4.11. Las dos funciones, suma1 y suma2, realizan el mismo cálculo:
la suma de un número grande más n veces un número chico. Dados los
datos de entrada: grande 3.4 1012, chico 1.0 y n 106, el resultado
grande= 3.4 1012
float suma1 (float grande, float chico, long n ) {
chico= 1.0
float resultado;
n= 10 6
resultado = grande;
for ( long i= 0; i< n; i++ )
a) Datos
resultado = resultado + chico;
return resultado;
}
b) Función suma1
float suma2 (float grande, float chico, long n ) {
suma1: 3.40000008 1012
suma2: 3.40000113 1012
float resultado;
resultado = 0;
c) Resultados
for ( long i= 0; i< n; i ++ )
resultado = resultado + chico;
resultado = resultado + grande;
return resultado;
}
c) Función suma2
FIGURA 4.11 Problema de precisión en aritmética de punto flotante
4.3 Programación
93
de ambas funciones debería ser: 3.400001 1012; sin embargo, los resultados de estas funciones escritas en Java no son los esperados, ya que: 1.
el número 3.4 1012 no tiene una representación exacta como float en la
computadora, y 2. en suma1, cada vez que en el ciclo se suma el número
chico al grande (3.4 1012 1.0), éste se pierde por problemas de precisión
y el resultado es el grande; mientras que en suma2 el número grande se
agrega a la suma de n veces el número chico (3.4 1012 1.0 106), y
ahora sí puede realizarse la suma, aunque con problemas de precisión. Si
en lugar de float se usa double en este ejemplo, el problema se elimina. Sin
embargo, dado que la precisión de double también es limitada, ésta no es
una solución universal.
El lenguaje Java cuenta con la clase BigDecimal, que soporta directamente la aritmética de números decimales. Con esta clase pueden representarse exactamente fracciones decimales y números en un intervalo y
con una precisión muy grandes; además, puede especificarse el número de
dígitos significativos y el modo de redondeo deseados. En contraste, es necesario utilizar métodos especiales que implementa la aritmética decimal
en lugar de los operadores comunes, y el tiempo de ejecución generalmente es mayor que si se emplean los tipos binarios float o double.
4.3 Programación
Así como se denomina hardware a los componentes f ísicos que constituyen una computadora, se da el nombre de software a los programas que
flexibilizan y hacen accesible el uso de las computadoras. De manera general, podemos decir que un programa es un conjunto de instrucciones que
implementa un algoritmo y que causa que una computadora ejecute una
función particular. En los inicios de la computación el software era el elemento menos importante y menos costoso de un sistema basado en computadora; sin embargo, actualmente el software por lo general es el elemento
más caro de los sistemas de información.
4.3.1 Tipos de software
Existen dos categorías principales en las que podemos dividir al software:
de sistema y de aplicación (figura 4.12). El software de sistema lo constituyen los programas que se encargan del control y administración de los recursos de cómputo, y los que permiten la interacción entre los usuarios y
los sistemas de aplicación o el hardware. Ejemplos de este tipo de software
son los traductores (compiladores, intérpretes y ensambladores) y los sistemas operativos, como Windows, XP o 2003 y varias versiones de Unix,
como AIX de IBM, o Solaris de Sun.
Por otra parte, el software de aplicación está compuesto por los programas que le permiten a una computadora realizar actividades específicas de
procesamiento de información y ofrecer una funcionalidad a los usuarios
94
Capítulo 4
Algorítmica y programación
are de aplicación
ftw
So
re de sistem
ftwa
a
So
wa
Hard re
FIGURA 4.12 Tipos de software
finales. Ejemplos de este tipo de software son el aplicativo, el estándar y el
específico. El software aplicativo no está ligado a una función particular del
negocio, sino que soporta procesos en general; por ejemplo procesos de
oficina (Word, Excel o PowerPoint), de administración de bases de datos
(DB2, Access), de investigación de operaciones (Lindo) o de ingeniería asistida por computadora (CATIA). El software estándar satisface de manera
genérica una función específica de las empresas, como sistemas de nómina
o de finanzas, y se puede personalizar para cada empresa individual. La
integración de diversos módulos funcionales estándar constituye un software empresarial que, en general, administra las operaciones vitales internas de la empresa (ERP), la cadena de suministro (SCM) y las relaciones
con los clientes (CRM). Por último, para satisfacer necesidades particulares
de una sola empresa se desarrolla software específico a la medida.
Algo que puede parecer extraño hoy en día es que para las primeras
computadoras personales no existía prácticamente software de aplicación.
No fue sino hasta 1978, cuatro años después del surgimiento de las microcomputadoras, cuando empezó a aparecer software de aplicación comercial. El éxito de la hoja de cálculo VisiCalc, diseñada por un estudiante de la
Universidad de Harvard para la Apple II en 1979, estimuló el desarrollo de
otras aplicaciones, principalmente de procesadores de palabras. Se estima
que más de la cuarta parte de las computadoras Apple vendidas en 1979
fueron compradas con el propósito de utilizar VisiCalc.
4.3.2 Lenguajes
La programación ha evolucionado continuamente desde los días de la configuración cableada de la ENIAC hasta el presente. La escritura del software en las primeras computadoras se realizaba en lenguaje de máquina,
mediante ceros y unos que codifican directamente las instrucciones que es
capaz de ejecutar el procesador. La programación en lenguaje de máquina
es dif ícil, y el código generado es complicado de leer (figura 4.13a). Para
facilitar la programación se desarrolló el lenguaje ensamblador, que utiliza
mnemónicos que permiten visualizar la función de las instrucciones de la
4.3 Programación
00111010 01001100 11001000
01000111
00111010 01001100 11001010
10000000
00110010 01001100 11001100
a) Lenguaje de máquina
95
LDA DIR i
MOV B,A
LDA DIR j
ADD B
STA DIR k
b) Lenguaje ensamblador
byte i,j,k;
k=i+j;
c) Lenguaje de alto nivel
FIGURA 4.13 Lenguajes de máquina y ensamblador
máquina (figura 4.13b). Este lenguaje, como el de máquina, manipula directamente las localidades de memoria y los registros del procesador,
transfiere datos entre ellos y realiza operaciones aritméticas y lógicas simples. La figura 4.13 muestra el código de máquina y ensamblador, para el
microprocesador 8080, de la suma de dos números de 1 byte almacenados
en memoria. Ambos lenguajes son dependientes de la arquitectura interna
del procesador: conjunto de instrucciones y número, nombre y tamaño de
los registros internos, e incluyen también saltos incondicionales y condicionales para cambiar el flujo del programa. Los lenguajes de alto nivel (figura 4.13c) surgieron para facilitar aún más la programación y hacerla independiente de la máquina, ofreciendo un mayor grado de abstracción al
programador. Estos lenguajes reconstruyen la máquina en la cual están
implantados para hacerla más adecuada a la programación.
Un compilador lee un programa escrito en un lenguaje de alto nivel
(código fuente) y lo traduce a un programa equivalente en código objeto. El
código objeto puede ser código de máquina, ensamblador, ICL (Intermediate Code Language) en los lenguajes .NET o byte codes de Java. Si el código
objeto está en lenguaje ensamblador, se necesitará un programa ensamblador para producir el código de máquina; mientras que si se trata de byte
codes o ICL, se utilizará un intérprete que traduzca cada instrucción a código de máquina al momento de ejecución cada vez que la encuentra. Es
interesante mencionar que en abril de 1975, Bill Gates y Paul Allen fundaron Microsoft para comercializar un intérprete de BASIC (Beginner’s Allpurpose Symbolic Instruction Code, 1964) para la microcomputadora Altair
8800 de la empresa MITS.
4.3.3 Paradigmas
Los lenguajes de programación de alto nivel proporcionan un modelo abstracto de la computadora que permite concentrarse en el diseño de los algoritmos y no en la arquitectura interna de los procesadores. Básicamente
se han desarrollado cuatro paradigmas de programación (y lenguajes de
96
Capítulo 4
Algorítmica y programación
propósito general que los soportan) que ofrecen diferentes modelos para
visualizar qué es un problema y cómo representar el proceso de su solución
por medio de una computadora. De acuerdo con el paradigma seleccionado, el programador modifica su conceptualización de los problemas a resolver, de los resultados esperados y de los posibles algoritmos.
Procedural: los primeros dos paradigmas pertenecen al grupo de lenguajes imperativos que parten conceptualmente de las instrucciones básicas y de la organización de la computadora, y buscan acercarse al dominio
de los problemas. En estos lenguajes se ordena cómo realizar una tarea
mediante una secuencia de instrucciones, que especifica a detalle cómo
resolver un problema.
En el paradigma de programación procedural se visualiza la solución
de un problema; un algoritmo con base en una jerarquía de procedimientos
que manipulan estructuras de datos y se comunican con el medio ambiente
externo. Cada procedimiento es responsable de llevar a cabo una tarea y se
especifica mediante una secuencia de procedimientos de menor nivel, donde el nivel más bajo son las instrucciones básicas proporcionadas por el
lenguaje. En la programación procedural, un procedimiento es una nueva
instrucción que puede formar parte de un procedimiento de mayor nivel;
un programa es una secuencia de instrucciones (procedimientos).
El primer lenguaje de alto nivel que se implementó fue FORTRAN
(FORmula TRANslation), desarrollado entre 1954 y 1957 por John Backus para utilizarse en aplicaciones científicas (numéricas). Poco tiempo
después, en 1959, se creó COBOL (COmmon Business Oriented Language), para programar aplicaciones de gestión. Un tercer lenguaje históricamente importante es ALGOL (ALGOrithmic Language, 1960) que aunque
no alcanzó el nivel de popularidad comercial de los dos anteriores, puede
considerarse como uno de los más importantes de su era, en términos de la
influencia que tuvieron sus estructuras sintácticas sobre el diseño de lenguajes posteriores.
Entre 1968 y 1971, Niklaus Wirth diseñó Pascal como un lenguaje promotor de la enseñanza de la programación estructurada en las universidades. En esta disciplina de programación se organizan los programas utilizando sólo construcciones algorítmicas selectivas y repetitivas estructuradas
(como if-then-else y while) que manipulan estructuras de datos y evitan al
máximo los saltos (instrucción GO TO) que oscurecen el entendimiento
del flujo del programa. En 1972, Ken Thompson y Dennis Ritchie, de los
Laboratorios Bell, crearon el lenguaje C, que fue muy popular durante
los últimos años del siglo pasado debido a su potencia y eficiencia, y que
daría origen posteriormente a varios lenguajes orientados a objetos muy
conocidos.
Orientado a objetos: en el paradigma de programación orientado a objetos, el procedimiento es desplazado por el objeto como centro de los programas. La organización de éstos gira ahora alrededor de los objetos, que
4.3 Programación
97
encapsulan estructuras de datos junto con los procedimientos (métodos)
que los manipulan.
Un programa está poblado por objetos independientes que modelan
entidades del mundo real, cada uno responsabilizándose por sí mismo y
comunicándose con otros por medio de mensajes, pidiéndose unos a otros
que efectúen tareas o que informen sobre su estado para cooperar a lograr
un fin común. La unidad básica de operación sigue siendo la instrucción
imperativa, y la ejecución de un programa una secuencia de acciones. Sin
embargo, en este paradigma las acciones son los métodos de los objetos
que responden al paso de mensajes de acuerdo con la acción más apropiada
determinada por su estado.
Los objetos son en realidad instancias activas de clases que abstraen las
características de objetos similares: estado, determinado por sus tipos de
datos, y comportamiento, especificado por sus métodos. Por ejemplo, la
clase Círculo puede contener variables de estado que representan su radio
y su color, y métodos que permiten consultar o modificar el valor de las
variables o calcular el valor de su superficie; diferentes objetos de la clase
Círculo tendrán valores distintos (o iguales) de sus variables que podrán
modificarse independientemente unos de otros al ejecutarse un programa.
La programación orientada a objetos explota una estructura jerárquica de
clases mediante la herencia de datos y métodos que permite reutilizar el
código ya escrito (y probado) para crear nuevas clases. Por ejemplo, un
Círculo puede ser una subclase de la clase Figura Geométrica que especifica que cualquiera de sus subclases heredará, sin necesidad de definirlos,
una variable color y los métodos para leer y escribir su valor; sin embargo,
cada subclase deberá definir métodos especiales para calcular su superficie
a partir del valor de sus variables particulares: radio, lado, base o altura.
Además de la herencia, puede utilizarse el mecanismo de composición para construir clases complejas a partir de clases simples. Por ejemplo, una
Interfaz Gráfica podría estar constituida por un objeto de la clase Ventana,
uno de la clase Menú y varias instancias de las clases Elemento Menú, Lista
y Botón.
Los conceptos de objetos, clases y herencia fueron introducidos en el
ámbito de la programación por el lenguaje Simula, creado entre 1962 y
1967 por Ole-Johan Dahl y Kristen Nygaard, del Centro de Computación
de Noruega. Originalmente, Simula fue diseñado como un lenguaje para la
simulación de eventos discretos, pero posteriormente se implementó como
un lenguaje de propósito general (Simula 67). Con el paso del tiempo se
desarrollaron tres lenguajes muy importantes que aprovecharon la popularidad de C y lo extendieron con los conceptos de la programación orientada
a objetos: C, Java y C#. El lenguaje C fue diseñado por Bjarne
Stroustrup, de los Laboratorios Bell, entre 1983 y 1985. Java fue creado por
un equipo de programadores de Sun Microsystems liderado por James
Gosling, y fue presentado públicamente en 1995. Finalmente, C# fue propuesto a la comunidad de programadores por Microsoft en el año 2000.
98
Capítulo 4
Algorítmica y programación
Funcional: los siguientes dos paradigmas pertenecen al grupo de lenguajes declarativos en los que el programador se preocupa más por la especificación del problema que por su solución.
En el paradigma funcional, un programa se conceptualiza como un
conjunto de funciones interrelacionadas. El papel de la función es central y
alrededor de ella gira la especificación de los programas. Idealmente el programador no especifica cómo calcular un resultado, sino que declara las
definiciones de las funciones y concibe la actividad de desarrollo de software en términos de la forma en que pueden combinarse estas funciones.
Esta propuesta promueve el anidamiento y la recursividad de funciones a
partir de un conjunto poderoso de funciones primitivas.
LISP (List Processing) es el lenguaje más conocido del paradigma funcional. Fue diseñado por John McCarthy, del MIT, poco tiempo después del
surgimiento de FORTRAN, y ya en 1960 se contaba con la primera implementación experimental sobre una IBM 704. La estructura sintáctica del
lenguaje es muy simple: una función está representada por una lista de elementos encerrados entre paréntesis, en la que los operadores se escriben
en notación prefija. LISP es un lenguaje diseñado para procesar símbolos
más que números, y es muy bueno para la formulación de algoritmos recursivos que manipulan estructuras de datos dinámicas. Las instrucciones
básicas definidas como parte del lenguaje incluyen funciones poderosas de
manipulación de listas.
En la figura 4.14 se muestran dos ejemplos de programas en LISP que
emplean recursión. El primero declara una función que calcula el factorial
de un número n. La declaración de la función sigue la definición matemática del factorial. Se define la función (defun) factorial que recibe un parámetro n, como: si n es igual a 0, el resultado es 1; si no, el resultado es el valor
de n multiplicado por el factorial de n menos 1. En el segundo ejemplo, la
función suma recibe como parámetro una lista x y calcula la suma de sus
elementos: si la lista está vacía, regresa 0; si la lista sólo tiene un elemento
(atom), regresa el valor de este elemento; en cualquier otro caso, regresa a
(defun factorial (n)
( (= n 0) 1)
( * n (factorial (– n 1) ) ) )
a) Factorial de n
(defun suma (x)
( (eql x nil) 0)
( (atom x) x)
( + (car x) (suma (cdr x) ) ) )
b) Suma de números de una lista x
FIGURA 4.14 Ejemplos de programas en LISP
4.3 Programación
99
la suma del primer elemento (car x) más el valor de la suma del resto de la
lista (cdr x).
LISP parte del cálculo lambda, desarrollado por Alonzo Church, como
una notación para representar funciones, y ve hacia abajo la forma de apoyarse en la computadora. El cálculo lambda es equivalente a las máquinas
de Turing, en el sentido que todo lo que puede ser calculado por una computadora puede expresarse en el cálculo lambda.
Lógico: en el paradigma lógico la programación se conceptualiza como
un proceso de deducción lógica aplicado a la solución de problemas. En
este paradigma, un programa es un conjunto de hechos y reglas que especifican una relación lógica entre los elementos, representados mediante
símbolos, de algún universo de discurso. El programador describe de manera precisa el problema, en lugar de indicar cómo resolverlo. La ejecución
de un programa requiere de una máquina abstracta capaz de contestar una
pregunta (consulta) basada en un proceso de inferencia sobre el conjunto
de hechos y reglas vistos como axiomas en un sistema lógico. La máquina
abstracta parte de un enunciado lógico, y busca hacia atrás axiomas cuya
aplicación demuestre el enunciado en una prueba constructiva, que finaliza
con los hechos que responden a la pregunta original. La distinción entre las
perspectivas declarativa e imperativa es tajante en la programación lógica.
El lenguaje Prolog (Programmation en Logique), creado en 1972 por
Alain Colmerauer y Philipe Roussel de la Universidad de Aix-Marseille en
Francia, es el representante clásico de este paradigma. La figura 4.15 muestra un ejemplo de programa en Prolog. El conocimiento sobre el problema
se declara en los hechos y en las reglas. Cada hecho representa un conocimiento específico y declara una relación formal que existe entre dos lenguajes de programación; por ejemplo, liga(fortran, algol) especifica que
fortran influyó en el diseño de algol. Las reglas representan un conocimienliga(fortran, algol).
liga(algol, simula).
liga(algol, pascal).
liga(algol, cpl).
liga(cpl, bcpl).
liga(bcpl, c).
liga(c, cmasmas).
liga(simula, cmasmas).
liga(cmasmas, java).
liga(java, csharp).
ruta(X, Y) :- liga(X, Y).
ruta(X, Y) :- liga(X, Z), ruta(Z, Y).
?- liga(c, cmasmas).
Yes.
?- liga(c, java).
No.
?- liga(c, L), liga(L, java).
cmasmas
Yes.
?- ruta(fortran, java).
Yes.
?-liga(X, cmasmas).
c
Yes.
simula
Yes.
b) Reglas
c) Consultas
a) Hechos
FIGURA 4.15 Ejemplo de un programa en Prolog
100
Capítulo 4
Algorítmica y programación
to general y en este caso declaran que el lenguaje X influyó en el diseño del
lenguaje Y, ruta(X, Y); si existe una liga directa entre ambos, liga(X, Y); o si
existe un lenguaje Z tal que existe una liga directa entre X y Z, liga(X, Z); y
Z influyó en el diseño de Y, ruta(Z, Y). Las consultas permiten interrogar la
base de conocimientos para, por ejemplo, determinar que fortran influyó
en el diseño de java.
4.4 Ingeniería de software
A finales de la década de 1960, el desarrollo de software cada vez más grande y más complejo condujo a fracasos en muchos proyectos: cancelación,
tiempo de entrega mayor al estimado, costo final excesivo, funcionalidad
errónea y/o mala calidad del producto. Para manejar la creciente complejidad del software y aumentar la probabilidad de éxito de los proyectos, surgió una nueva disciplina: la ingeniería de software, que puede verse como
la aplicación sistemática del conocimiento científico al desarrollo de software.
Para desarrollar de manera sistemática software escalable, de alta calidad y a bajo costo, se necesita mucho más que uno o varios programadores
ingeniosos y creativos. La industria de software debe utilizar procesos ingenieriles para producir sistemas que realicen una función para un negocio; para analizar requerimientos complejos, difusos y cambiantes de los
usuarios; para establecer y administrar el riesgo del proyecto; para sistematizar el proceso de localización de defectos, y para organizar y administrar
equipos de trabajo. La ingeniería de software se enfoca principalmente hacia estos procesos con la hipótesis de que la calidad de los productos de
software está principalmente influida por los procesos con los que se desarrolla.
En un proyecto para generar un producto de software se sigue un proceso a base de programas y documentación. El proceso especifica un conjunto de actividades abstractas que deben realizarse en un orden determinado en cualquier proyecto, cada proyecto las implementa de manera
específica. El proceso de software incluye todos aquellos procesos relacionados con los aspectos de ingeniería y de administración del desarrollo de
software. Dentro de los procesos de ingeniería se encuentran los procesos
Proceso de software
Proyecto 1
...
Proyecto i
...
Proyecto n
...
...
Producto1 Producto j Productom
FIGURA 4.16 Procesos, proyectos y productos
4.4 Ingeniería de software
101
de desarrollo, de administración de proyectos (planeación, monitoreo y
control, análisis de terminación) y de administración de la configuración
del software (control de cambios). El proceso de administración del proceso, por su parte, se encarga de la mejora continua de todos los procesos con
base en la evaluación (cuantitativa) de la eficiencia y eficacia obtenidas en
los proyectos realizados.
El proceso de desarrollo de software especifica actividades directamente relacionadas con la producción del mismo y es, por tanto, un elemento central de este proceso. Las actividades generales que se especifican
son: el análisis, la especificación y validación de requerimientos, para entender y especificar cuál es el problema; el diseño de la solución, de alto
nivel y detallado, que describe cómo debe resolverse el problema; la codificación de la solución, simple y clara, en un lenguaje de programación, y las
pruebas, unitarias y de integración, para detectar defectos en el producto
de software. Para realizar estas actividades existen diferentes metodologías
que, en función de las características del problema a resolver, son comúnmente utilizadas: cascada (las actividades se realizan en orden lineal), prototipo (se construye una primera versión preliminar informal en la fase de
análisis de requerimientos), iterativa incremental (el desarrollo se realiza
por incrementos de funcionalidad) y espiral (las actividades se realizan en
varios ciclos, en cada uno de los cuales puede usarse un modelo diferente,
según los riesgos identificados).
La programación extrema es una metodología ligera, iterativa incremental, creada para desarrollar software en equipos pequeños y medianos
que trabajan en proyectos con requerimientos difusos o cambiantes; se distingue de las anteriores en que considera a la codificación como su actividad principal y lleva al extremo un conjunto de prácticas simples. Mediante esta metodología se libera rápidamente a producción un sistema sencillo
y, de igual manera, se liberan continuamente nuevas versiones en tiempo
muy corto; se determina rápidamente el alcance de la siguiente versión,
combinando prioridades del negocio con estimaciones técnicas. De las
cuatro variables de un proyecto: costo, tiempo, calidad y alcance, la programación extrema especifica que el cliente del producto sólo puede escoger
tres, y el desarrollador estima, entonces, la cuarta. El diseño en cada versión se hace tan simple como sea posible para la funcionalidad actual; no se
diseña para el futuro, sino que se paga la opción de esperar para entender
mejor el problema y prevenir cambios en los requerimientos. En la programación extrema se hace énfasis en escribir y automatizar las pruebas (unitarias y de funcionalidad) antes de iniciar la codificación. La programación
se efectúa en pares sobre una misma máquina para tener una revisión continua; se utilizan estándares de codificación y el sistema se integra varias
veces al día, cada vez que se completa una tarea. Finalmente, el sistema se
reestructura periódicamente para eliminar duplicados, simplificar o agregar flexibilidad.
102
Capítulo 4
Algorítmica y programación
Dentro del marco del proceso de administración del proceso, el Instituto de Ingeniería de Software de la Universidad de Carnegie-Mellon desarrolló el Modelo de Madurez de Capacidades para Software (SWCMM).
Este modelo, basado en una colección de “mejores prácticas”, describe una
ruta evolutiva de cinco niveles de madurez para el mejoramiento de la capacidad (intervalo de resultados esperados) del proceso de software de una
organización. En el primer nivel (inicial) los procesos son ad-hoc y frecuentemente caóticos; el éxito de los proyectos depende de esfuerzos individuales. En el nivel dos (repetible) se tiene establecido el proceso de administración de proyectos para controlar el costo, calendario y funcionalidad; este
proceso permite repetir éxitos en proyectos con aplicaciones similares. En
el nivel tres (definido) se documentan y normalizan las actividades de administración e ingeniería en la organización; cada proyecto adecua sus actividades a partir de las normalizadas. En el cuarto nivel (administrado) se
recopilan medidas detalladas de la calidad del producto y los procesos para
entenderlos cuantitativamente. En el nivel cinco (optimizado) se mejoran
continuamente los procesos a través de la retroalimentación cuantitativa
de su desempeño estadístico y de la prueba de nuevas ideas y tecnologías.
Cada nivel es la suma de las capacidades de los niveles inferiores, y se alcanza a partir del precedente, mejorando ciertas áreas particulares. Un nivel
debe alcanzarse en todas y cada una de las áreas clave de proceso definidas
para que la organización obtenga ese nivel. El modelo SWCMM se combina con otros modelos CMM, principalmente ingeniería de sistemas y desarrollo integrado de producto, para constituir el modelo CMM Integrado
(CMMI), que representa un marco de referencia más amplio y que puede
incluir, por ejemplo, el manejo del outsourcing. CMMI puede tener una
representación escalonada, como SWCMM, o continua, en la que se evalúa la capacidad de cada área por separado.
Los CMM son sólo modelos de referencia; especifican las características deseables de los procesos, pero no describen cómo se deben implementar. Una estrategia para la implementación eficaz de SWCMM o de CMMI
está basada en el Personal Software Process (PSP) y el Team Software Process (TSP), creados por Watts Humphrey. PSP proporciona una disciplina
individual para el desarrollo de productos de software; consiste en un conjunto de métodos, formas y guiones que muestran a los ingenieros cómo
planear, medir y administrar su trabajo, con el objetivo de mejorar sus habilidades y lograr productos sin defectos, a tiempo y dentro de los costos
planeados. Por otra parte, TSP guía a equipos en el desarrollo más eficiente
de software proporcionando un contexto disciplinado de trabajo ingenieril
que incluye procesos operacionales para formar equipos, establecer un ambiente eficaz de trabajo y guiar el trabajo de los equipos.
Referencias
103
EJERCICIOS PROPUESTOS
1. Describa cuáles serían los pasos para desarrollar un algoritmo que dentro de un conjunto
de 10 números, pueda darle el intervalo de los mismos.
2. Utilizando el algoritmo de Kruskal construya el árbol de mínimo recubrimiento de la
siguiente gráfica (los números corresponden a las longitudes de las aristas).
C
B
16
25
18
30
6
12
E
D
3. Defina en Lisp una función que calcule el n-ésimo número de la sucesión de Fibonacci: 1, 1,
2, 3, 5, 8, 13, 21, …
4. Explique cómo, a partir de un ejemplo de generaciones de conejitos que se reproducen, pueden derivarse los números de Fibonacci.
5. Indique los principales campos de aplicación para la programación por procedimientos,
orientada a objetos, funcional y lógica.
Referencias
Aho, A. V. y Ullman, J. D. (1994). “Foundations of
Computer Science”, en Computer Science Press,
W. H. Freeman.
Anderson, D. R., Sweeney, D. J. y Williams, T. A.
(2003). An Introduction to Management Science – Quantitative Approaches to Decision
Making, 10a. Ed., Thomson South-Western.
Beck, K. (2000). Extreme Programming Explained – Embrace Change, Addison-Wesley.
Bolter, J. D. (1988). El hombre de Turing: La cultura
occidental en la era de la computación, Fondo
de Cultura Económica, México.
Coello Coello, C. A. (2003). Breve historia de la
computación y sus pioneros, Fondo de Cultura
Económica, México.
Cowlishaw, M., Bloch, J. y Darcy, J. D. (2004). “Fixed,
Floating, and Exact Computation with Java’s
BigDecimal”, en Dr. Dobb’s Journal, julio de
2004, pp. 22-27.
Denning, P. J. (2004). “The Field of Programmers
Myth”, en Communications of the ACM, vol. 4,
núm. 7, julio de 2004, pp. 15-20.
Feynman, R. P. (1999). Feynman Lectures on Computation, Hey, T. y Allen, R. W. (Eds.), Perseus.
Galaviz Casas, J. (2003). Elogio de la pereza: La
ciencia de la computación en una perspectiva
histórica, UNAM, Facultad de Ciencias, México.
Greiff, W. R. (1993). “El ocaso del sol a través de una
ventana: Un discurso sobre los paradigmas de
programación”, en Soluciones Avanzadas, núm. 5,
México, septiembre-octubre de 1993, pp. 35-40.
Hennessy, J. L. y Patterson, D. A. (1993). Arquitectura de computadores: Un enfoque cuantitativo,
McGraw-Hill, México.
104
Capítulo 4
Algorítmica y programación
Jalote, P. (1997). An Integrated Approach to Software
Engineering, 2a. Ed. Springer-Verlag.
Knuth, D. E. (1980). El arte de programar
ordenadores: Algoritmos fundamentales,
Reverté.
Levine, G. (2001), Computación y programación
moderna: Perspectiva integral de la informática,
Addison-Wesley, México.
Sethi, R. (1992). Lenguajes de programación:
Conceptos y constructores, Addison-Wesley,
México.
Turban, E., Rainer, K. R. y Potter, R. (2003). Introduction to Information Technology, 2a. Ed., John
Wiley and Sons.
Wirth, N. (1980). Algoritmos + Estructuras de Datos = Programas, Ediciones del Castillo, México.
CAPÍTULO
5
Herramientas
computacionales
para ingeniería
AUTOR:
Dr. Héctor A. Moreno Ávalos
Con la colaboración del Dr. Víctor Cruz Morales
5.1 Introducción
5.2 Programas computacionales para ingeniería
5.3 MATLAB
5.4 Comentarios finales
5.1 Introducción
Una labor esencial durante la ejecución de un proyecto de ingeniería es la
elaboración de cálculos matemáticos que permitan determinar las características del proceso o sistema que será desarrollado. Anteriormente,
para cálculos sencillos esta labor se realizaba mediante el uso de la calculadora y un cuaderno de notas. El ingeniero planteaba el problema a ser
resuelto hacia una abstracción del mismo, identificaba las variables de diseño y restricciones, y empleaba fórmulas para calcular, de acuerdo con
los requerimientos, las distintas propiedades que el objeto de diseño debería poseer.
En la actualidad esta labor se sigue realizando, no obstante, ahora se
tiene al alcance una serie de herramientas computacionales que permiten
realizar cálculos complejos de manera rápida, y mostrar los resultados de
distintas formas para facilitar su interpretación. Estas herramientas permiten reducir sustancialmente el tiempo de análisis y diseño en un proyecto
de ingeniería.
Estos paquetes contienen una gran cantidad de funciones que permiten un fácil manejo de operaciones matemáticas. Además, permiten visualizar grandes cantidades de información a través de sus funciones gráficas.
Otra gran ventaja que presentan es que se mantiene un registro de los
cálculos realizados durante el proyecto. Esto permite revisar, corregir y mejorar los procedimientos de cálculo, que además pueden ser reutilizados en
diferentes proyectos.
106
Capítulo 5
Herramientas computacionales para ingeniería
En este capítulo se presenta un breve panorama sobre los paquetes
computacionales que pueden ser empleados para realizar cálculos de ingeniería. Posteriormente se presenta una introducción a MATLAB, uno de
los paquetes más empleados en la academia e industria para cálculos matemáticos. Los temas abordados son: la interfaz de usuario, la introducción
de comandos, las funciones básicas del programa, la programación, la creación de gráficos y las funciones de matemática simbólica.
5.2 Programas computacionales para ingeniería
Entre los paquetes computacionales que pueden ser empleados para cálculos de ingeniería están:
•
•
•
•
•
Excel®
Mathcad®
Maple®
MATLAB®
Scilab
Excel es uno de los programas de computación más empleados en la
industria. Este es un programa de hoja de cálculo desarrollado por Microsoft®. Las hojas de cálculo son aplicaciones en las que se almacenan, procesan y visualizan datos numéricos en una rejilla de celdas. Estas celdas son
referidas por el renglón y columna que ocupan en la rejilla. En la figura 5.1
se presenta la interfaz de usuario de Excel.
Inicialmente concebidas para su uso en ámbitos financieros, las hojas
de cálculo pueden ser también empleadas en proyectos de ingeniería por su
capacidad genérica para realizar cálculos matemáticos. En el caso de Excel,
éste contiene diversas funciones de estadística y de matemática elemental.
El usuario puede crear otras funciones matemáticas mediante una sintaxis
propia para la referencia de celdas y los operadores matemáticos básicos.
Por otro lado, Excel permite la creación de gráficos en dos dimensiones, los
cuales son una herramienta muy útil para visualizar la información de manera global. En internet existe una gran cantidad de tutoriales y plantillas
para Excel. Se recomienda al lector revisar la información contenida en el
sitio oficial (office.microsoft.com/es-hn).
Dentro de otra categoría de programas de cálculo están aquellos que
se podrían denominar de cálculo técnico. Estos programas tienen en común que, además de las funciones para el cálculo numérico, poseen otras
funciones y herramientas que permiten, por ejemplo: el cálculo algebraico
simbólico, el cálculo diferencial e integral, la resolución de ecuaciones diferenciales, la optimización numérica, el álgebra matricial, entre otras funciones matemáticas avanzadas. Esta clase de programas contienen funciones propias de la física y la ingeniería, facilitan la implementación de
algoritmos mediante operadores o lenguajes de programación y proveen
5.2 Programas computacionales para ingeniería
107
FIGURA 5.1 Interfaz de usuario de Excel
de una amplia variedad de opciones para la creación de gráficas en dos y
tres dimensiones.
En esta última categoría se encontraría el Mathcad, propiedad actualmente de la compañía PTC®. La interface de usuario de Mathcad está compuesta de múltiples barras de herramientas y un área de trabajo donde el
usuario introduce las funciones matemáticas que incluyen sus cálculos de
ingeniería. En la figura 5.2 se muestra la interfaz de usuario de Mathcad.
Mathcad tiene como peculiaridad que las funciones se presentan en
notación matemática estándar, lo cual facilita su lectura e interpretación.
En el área de trabajo se definen las variables y funciones involucradas en los
cálculos. Se pueden crear las funciones escribiéndolas directamente o mediante los botones de las barras de herramientas. Además se puede agregar
texto, como comentarios sobre la lógica de las operaciones y referencias a
las funciones. De esta manera se realizan los cálculos del proyecto y, al
mismo tiempo, se documentan.
108
Capítulo 5
Herramientas computacionales para ingeniería
FIGURA 5.2 Interfaz de usuario de Mathcad
Otro programa para cálculo técnico es Maple. Es un programa que
originalmente fue desarrollado para realizar álgebra computacional, es decir, realizar operaciones matemáticas empleando variables simbólicas (caracteres de texto). Posteriormente este programa fue ampliando una gran
variedad de herramientas para cálculos de ingeniería, como las que presenta Mathcad o MATLAB. Por otra parte, Scilab es un paquete de cálculo
técnico que se asemeja a MATLAB en su interfaz y operación. Lo distintivo
de Scilab es que es un software de código abierto, es decir, se puede adquirir y utilizar sin costo alguno (www.scilab.org).
A continuación se realiza una presentación de las herramientas y el uso
de MATLAB. Este paquete dispone de un lenguaje de programación y una
serie de funciones básicas. También posee gran cantidad de funciones contenidas en librerías especializadas en diferentes áreas de ingeniería y ciencia, las cuales se denominan toolboxes. En la siguiente sección se hará referencia principalmente a las funciones básicas, y al final se describirá la
toolbox de matemática simbólica.
5.3 MATLAB
109
5.3 MATLAB
MATLAB es un paquete de software orientado a la realización de proyectos que involucren cálculos matemáticos complejos o de gran magnitud, así
como la visualización gráfica de los mismos. Posee un entorno para el desarrollo de aplicaciones y un lenguaje de programación propio. El nombre
de MATLAB es una contracción de MATrix LABoratory (laboratorio de
matrices), ya que originalmente fue diseñado para manejo de matrices matemáticas en cursos de álgebra lineal.
Actualmente MATLAB se encuentra implantado en gran cantidad de
universidades, ya que es útil en la impartición de cursos, como álgebra lineal, ecuaciones diferenciales, ingeniería de control, procesamiento de
imágenes, etc. Por otro lado, también es empleado en centros de investigación y desarrollo de varias compañías, debido a sus prestaciones para modelado y simulación, las librerías especializadas que posee y a su capacidad
para interactuar con diferentes clases de software y hardware.
FIGURA 5.3 Intefaz de usuario de MATLAB
110
Capítulo 5
Herramientas computacionales para ingeniería
Los usos típicos de MATLAB incluyen:
•
•
•
•
•
•
Cálculos matemáticos
Implementación de algoritmos
Modelado y simulación
Creación de gráficos científicos y de ingeniería
Adquisición de datos y control de sistemas
Desarrollo de aplicaciones con GUIs
Interfaz de usuario
La principal forma de interactuar con MATLAB es a través de su interfaz
de usuario, la cual se muestra en la figura 5.3. Ésta aparece una vez que se
ejecuta la aplicación. Los elementos de la interfaz de usuario son:
1. Barra de menús. Esta barra contiene diversos menús de comandos, algunos de ellos se encuentran comúnmente en cualquier
software, como: los comandos de abrir, guardar y exportar archivos; hacer, deshacer, copiar, pegar, cortar y eliminar; aquellos que
despliegan las herramientas de ayuda.
2. Barra de herramientas. En esta barra se muestran como iconos
algunos de los comandos anteriormente citados y que se encuentran en la barra de menús. Los dos elementos más importantes
son: el icono de Simulink, que manda a ejecutar este programa, y el
campo en el que se muestra y se puede definir el directorio actual
(Current Directory).
3. Command Window. Ésta es la sección más importante de la interfaz de usuario, ya que en esta ventana se introducen los comandos que MATLAB va a ejecutar y se despliegan los resultados de
las operaciones realizadas. Posteriormente se describirá con mayor detalle esta ventana.
4. Ventana Current Directory. En esta ventana aparecen los archivos y carpetas contenidos en el directorio (o carpeta) actual. Dando doble click sobre algún elemento de esta ventana se abre el archivo o carpeta correspondiente.
5. Ventana Workspace. En esta ventana se presentan las variables (y
sus valores) que se han definido durante la sesión. Presenta opciones para leer y guardar archivos de variables (*.mat).
6. Ventana Command History. Esta ventana muestra el historial de
comandos introducidos por el usuario en el Command Window.
Se pueden arrastrar comandos desde esta ventana hacia el Command Window para no volverlos a escribir de nuevo.
Línea de comandos
Como se comentó, para interactuar con MATLAB se introducen las operaciones en la línea de comandos indicada por el símbolo >>. Por ejemplo,
5.3 MATLAB
111
TABLA 5.1 Operaciones aritméticas
Operación
Símbolo
Suma
Resta
-
División
/
Multiplicación
*
Potencia
^
para crear una variable llamada “a” y asignarle un valor de 1, hay que escribir después del símbolo >> aⴝ1 y presionar Enter, como se muestra en el
siguiente cuadro:
>> a1
a
1
>>
En la primera línea se muestra la asignación que realizó el usuario.
Después de presionar Enter, MATLAB indica el resultado de la operación,
es decir, que se ha creado una variable a y su valor es 1. Luego de esto aparece de nuevo el símbolo >> para indicar que MATLAB está habilitado
para recibir nuevas instrucciones.
MATLAB permite realizar una enorme variedad de operaciones matemáticas. Las más sencillas son las aritméticas, que se enlistan en la tabla 5.1
con su correspondiente símbolo de MATLAB. Para realizar la suma de dos
variables, a y b, cuyos valores son 1 y 2, respectivamente, lo que se hace es
escribir ab, después se presiona Enter.
>> ab
ans 3
El resultado de la operación se guarda en una variable del programa
llamada ans. Si se deseara dividir a entre b, se realizaría la siguiente operación:
>> a/b
ans 0.5000
112
Capítulo 5
Herramientas computacionales para ingeniería
TABLA 5.2 Algunas variables predefinidas
Operación
Símbolo
pi
Número 3.1416…
ioj
Unidad imaginaria 1
Inf o inf
Infinito
NaN o nan
Indeterminación
MATLAB tiene una serie de variables predefinidas, las cuales se enlistan en la tabla 5.2. Se recomienda ser cuidadoso si se redefinen durante una
sesión o programa.
Arreglos, vectores y matrices
En MATLAB las variables son arreglos de datos, es decir, es un conjunto
ordenado de elementos del mismo tipo. De esta manera una variable puede
contener el historial de valores de cierta magnitud de algún fenómeno (p. e.
la temperatura de una habitación en diferentes horas del día).
Un arreglo unidimensional se denomina vector, y puede ser de dos tipos: vector renglón o vector columna. Para crear un vector renglón se usan
corchetes que contienen a los elementos, separados por una coma o un
espacio en blanco, por ejemplo:
>> p[1 2 3]
p
1
2
3
Para crear un vector columna lo que se hace es separar a los elementos
por un punto y coma (;), como se muestra a continuación:
>> q[4; 5; 6; 7]
q
4
5
6
7
La diferencia entre un vector renglón y un vector columna tiene importancia cuando se realizan operaciones matemáticas que incluyen matrices. Cabe señalar que un vector puede contener cualquier número finito de
113
5.3 MATLAB
elementos. En f ísica los vectores más comunes son los de dos y tres dimensiones, que permiten, por ejemplo, definir la posición de un punto en coordenadas cartesianas; los vectores también son usados para caracterizar
ciertas magnitudes f ísicas, como la velocidad, la aceleración y la fuerza.
Se pueden crear vectores mediante el operador dos puntos (:). Se indica el valor inicial, el incremento y el valor final que deben tener los valores
del arreglo, como se muestra en el cuadro.
>> c1:0.5:4
c
1.0000
1.5000
2.0000
2.5000
3.0000
3.5000
4.0000
En MATLAB se pueden crear arreglos de múltiples dimensiones. Además de los vectores, los arreglos bidimensionales son otro tipo de variables
muy usadas. Los arreglos bidimensionales se emplean para representar matrices matemáticas, las cuales tienen múltiples aplicaciones en ingeniería.
Para crear una matriz en MATLAB, se escriben entre corchetes los elementos de cada renglón separados por un espacio (o una coma), y se emplea el
punto y coma (;) para comenzar un nuevo renglón:
>> A[1
2
3;
4
5
6;
7
8
9]
A
1
2
3
4
5
6
7
8
9
Todos los renglones deben tener el mismo número de elementos, y lo
mismo aplica para arreglos de mayores dimensiones.
Para determinar el tamaño de un arreglo se emplea la función size( ).
Esta función entrega el número de renglones y de columnas del arreglo
definido en el argumento.
>> size(p)
ans 1
3
Se puede acceder al valor de un arreglo mediante el empleo de índices;
por ejemplo, para visualizar al tercer elemento del vector q (que se definió
anteriormente) se escribe:
114
Capítulo 5
Herramientas computacionales para ingeniería
>> q(3)
ans 6
En el caso de matrices se debe indicar los índices correspondientes al
renglón y la columna donde se encuentra el elemento:
>> A(3,2)
ans 8
Al igual que en el caso de las variables de un solo elemento (llamadas
también escalares), MATLAB permite realizar operaciones aritméticas de
vectores, matrices y arreglos de mayores dimensiones. Se pueden emplear
las mismas operaciones presentadas en la tabla 5.1, así como realizar operaciones entre escalares y vectores; por ejemplo, para las variables previamente definidas b y p se tiene:
>> b*p
ans 2
4
6
>> p/b
ans 0.5000
1.0000
1.5000
Lo anterior se puede hacer también entre un escalar y una matriz. Las
operaciones aritméticas entre vectores y matrices deben cumplir ciertas
condiciones con respecto al tamaño de las variables involucradas. Para la
suma y la resta entre vectores (o entre matrices) basta que sean del mismo
tamaño. La suma (o resta) se hace elemento a elemento y el resultado se
almacena en otro vector (o matriz, según el caso), por ejemplo:
>> [2 8 1]p
ans 3 10 4
>> AA
ans 2
8
14
4
10
16
6
12
18
5.3 MATLAB
115
Se puede observar que en la primera línea del cuadro anterior no fue
necesario crear una nueva variable, sino que también es posible definir los
valores directamente de un vector.
La multiplicación entre arreglos unidimensionales y bidimensionales
se realiza de acuerdo con las reglas matemáticas para multiplicación entre
matrices. Para realizar la multiplicación entre dos matrices, se debe cumplir que el número de elementos de cada renglón de la primera matriz sea
igual al número de elementos de cada columna de la segunda matriz. Por
ejemplo, en el siguiente cuadro se crea un vector columna r (con valores de
sus elementos 1, 8, 3) y luego se multiplica por la matriz A.
>> r[1; 8; 3]
r
1
8
3
>> A*r
ans 26
62
98
En matemáticas la multiplicación entre matrices (y vectores) consiste
en multiplicar uno a uno los elementos del i-ésimo renglón de la primera
matriz con los elementos de la j-ésima columna de la segunda matriz y sumarlos. El resultado corresponde al elemento (i, j) de la matriz derivada de
la operación.
Un equivalente de la división entre matrices es el cálculo de la matriz
inversa. La determinación de la matriz inversa tiene una gran aplicación en
problemas de álgebra elemental. Si se tiene un sistema de 3 ecuaciones con
3 incógnitas, como el siguiente:
2x y z 20
x 2y 3z 15
5x 2y z 8
Este sistema se puede expresar de manera matricial como:
Cx ⴝ r
Donde
[ ]
2
C 1
5
1
2
2
1
3
1
[]
x
x y
z
[]
20
r 15
8
116
Capítulo 5
Herramientas computacionales para ingeniería
El vector de incógnitas se determinaría por:
x C1r
siendo C1 la matriz inversa de C.
En MATLAB se resolvería este sistema de ecuaciones empleando la
función inv( ) de la siguiente manera:
>> C[2 1 1; 1 2 3; 5 2 1];
>> r[20; 15; 8];
>> xinv(C)*r
x
28.4999
-97.4999
60.4999
La función inv( ) entrega la matriz inversa de la variable que se encuentra en su argumento. En el cuadro anterior se puede observar también que,
si se escribe un punto y coma al final de la línea, MATLAB no muestra el
resultado de la acción que se ejecuta (en el caso de la primera línea, no se
muestra que se definió C).
Comandos y funciones básicas
Como se explicó, MATLAB contiene una serie de comandos y funciones
básicas y un conjunto de toolboxes con funciones relativas a diferentes
campos de especialización. En este apartado se revisarán algunas funciones
básicas de MATLAB. Se pueden clasificar de acuerdo con las siguientes
categorías:
•
•
•
•
•
•
•
Herramientas de escritorio
Funciones matemáticas
Análisis de datos
Programación
Gráficos
Desarrollo de interfaces de usuario
Interfaces externas
En la primera categoría, herramientas de escritorio, se encuentran
los comandos que permiten iniciar o cerrar MATLAB y otras herramientas
(Simulink, helpdesk, etc.); realizar operaciones sobre el Command Window y el Workspace; obtener información de comandos y funciones; realizar operaciones con archivos (como buscar, copiar, borrar, etc.), y acceder
5.3 MATLAB
117
TABLA 5.3 Algunos comandos para Command Window y Workspace
Comando
Descripción
clc
Limpia la ventana del Command Window.
format
Define el formato en que se presentan las variables numéricas.
save
Guarda las variables del workspace en un archivo *.mat.
load
Lee un archivo *.mat y carga sus variables en el workspace.
who
Presenta una lista con las variables activas en el workspace.
clear
Borra las variables del workspace.
close
Cierra las ventanas de gráficos.
help
Presenta la descripción y empleo de cierto comando.
doc
Abre la documentación de MATLAB relativa a cierto comando.
quit
Cierra MATLAB.
a directorios. En la tabla 5.3 se presentan algunos comandos útiles para
realizar operaciones sobre el Command Window y el Workspace.
MATLAB contiene múltiples funciones matemáticas elementales, como funciones trigonométricas, logarítmicas y exponenciales, para números complejos, de redondeo, etc. (véase tabla 5.4). También posee funciones que permiten realizar operaciones entre polinomios, y otras que
proveen de múltiples métodos de interpolación.
La mayoría de las funciones matemáticas se pueden aplicar indistintamente a escalares y arreglos. En el siguiente cuadro se presenta el uso de la
función de raíz cuadrada para un escalar con arreglo (pⴝ[1 2 3]):
>> sqrt(9)
ans 3
>> sqrt(p)
ans 1.0000
1.4142
1.7321
Uno de los distintivos de MATLAB es su funcionalidad para el manejo
de matrices. Este software posee funciones para álgebra lineal, las cuales
permiten, por ejemplo, resolver sistemas lineales, obtener la factorización
LU y de Cholesky, calcular el rango y el determinante de una matriz, calcular los valores singulares, etcétera.
118
Capítulo 5
Herramientas computacionales para ingeniería
TABLA 5.4 Algunas funciones matemáticas básicas
Función
Descripción
sum()
Entrega la suma de los elementos de un arreglo.
prod()
Entrega la multiplicación entre los elementos de un arreglo.
Potenciación y exponenciación
power()
Eleva a cierta potencia un número.
sqrt()
Entrega la raíz cuadrada del argumento.
exp()
Entrega el valor de la función exponencial dado el argumento.
log()
Entrega el logaritmo natural del argumento.
Trigonométricas
sin()
Entrega el valor del seno del argumento (dado en radianes).
cos()
Entrega el valor del coseno del argumento.
tan()
Entrega el valor de la tangente del argumento.
asin()
Entrega el ángulo del arco seno del argumento.
atan2()
Entrega el ángulo (entre π y π) del arco tangente del argumento.
Números complejos
complex()
Crea un número complejo.
abs()
Entrega el módulo del número complejo.
angle()
Entrega el ángulo de fase del número complejo.
real()
Entrega la parte real del número complejo.
imag()
Entrega la parte imaginaria del número complejo.
Redondeo
fix()
Redondea hacia cero.
round()
Redondea hacia el entero más cercano.
Entre las funciones orientadas al análisis de datos, están aquellas propias de estadística descriptiva, funciones de filtrado y convolución, derivadas e integrales numéricas, análisis de series temporales, etc. En la tabla 5.5
se presentan algunas funciones comunes de estadística.
En los siguientes apartados se presentarán los comandos, operadores y
TABLA 5.5 Algunas funciones de estadística descriptiva
Comando
Descripción
max()
Entrega el valor máximo de un arreglo.
min()
Entrega el valor mínimo de un arreglo.
mean()
Entrega la media de los valores de un arreglo.
std()
Entrega la desviación estándar de un arreglo.
5.3 MATLAB
119
estructuras de control empleadas para la programación en MATLAB, así
como las funciones para realizar gráficos en dos y tres dimensiones.
Programación
Antes de entrar al tema de la programación en MATLAB, conviene explicar la creación de archivos en este programa. Los archivos que contienen
comandos o funciones son llamados archivos M. Éstos son archivos de texto y tienen una extensión *.m. Para crear un nuevo archivo M se debe ir a la
barra de menús y seleccionar File\New\M-File. Después de eso se abrirá un
editor de texto donde se escribirán los comandos o funciones.
Existen dos tipos de archivos: los archivos de comandos (scripts) y las
funciones. Un archivo de comandos consiste de una secuencia de comandos de MATLAB, estos archivos no son propiamente un programa. Las
funciones, por su parte, son programas que tienen como entrada argumentos, procesan la información contenida en ese argumento mediante diversas operaciones, y entregan valores de salida.
Para crear una función en MATLAB se escribe la palabra function al
principio del archivo seguida de la variable de la salida, el símbolo “”, el
nombre de la función y los argumentos entre paréntesis. En el siguiente
cuadro se muestra una función, llamada area_tri(), que calcula el área de
un triángulo.
function Aarea_tri(a,b)
%Esta función calcula el área de un triángulo.
Aa*b/2;
Los argumentos de esta función son las variables locales de entrada a y
b que representan la altura y la base del triángulo. La salida de la función se
realiza a través de la variable A. En la última línea del archivo se muestra la
operación para el cálculo del área. Se puede notar también que en los archivos M los comentarios se hacen empleando el símbolo %.
En el siguiente cuadro se presenta la ejecución de la función. El valor de
salida se almacena en la variable S.
>> Sarea_tri(2,3)
S
3
MATLAB dispone de comandos para implementar estructuras de control de flujo. Este tipo de estructuras se encuentran en la mayoría de los
120
Capítulo 5
Herramientas computacionales para ingeniería
TABLA 5.6 Operadores relacionales
Operador
>
>
<
TABLA 5.7 Operadores lógicos
Significado
Mayor que
Operador
Significado
&&
Y lógico
Mayor o igual que
||
O lógico
Menor que
~
No lógico
<
Menor o igual que
Igual que
~
Diferente que
lenguajes de programación y permiten modificar el flujo de ejecución de las
instrucciones que constituyen al programa. MATLAB incluye estructuras
de control de selección y de iteración.
Para las estructuras de control de selección se tienen los comandos if
y switch, y para las estructuras de iteración se tienen los comandos for y
while.
La sintaxis para el empleo de if es la siguiente:
if expresión
instrucciones
end
Si la expresión es verdadera, se ejecutan las instrucciones que se encuentran dentro de la estructura, de otra manera no se ejecutan estas expresiones y el programa continúa en la siguiente instrucción. Las expresiones lógicas se construyen con las variables definidas en el programa y
operadores relacionales y lógicos, como los que se muestran en las tablas
5.6 y 5.7.
Por otra parte, la sintaxis para el empleo de switch es la siguiente:
switch variable
case valor1
instrucciones
case valor2
instrucciones
…
otherwise
instrucciones
end
En esta estructura se ejecutan las instrucciones correspondientes al
bloque en el que la variable sea igual al valor (valor1, valor2,… valorn) de
5.3 MATLAB
121
alguno de los casos. De esta manera se selecciona alguno de los casos de la
estructura. Cuando el valor de la variable no corresponde a ningún caso,
entonces se ejecutan las instrucciones que se encuentran en otherwise.
En el siguiente cuadro se presenta un ejemplo de la aplicación del if y
del switch. La función calcula el perímetro de algunas figuras sencillas: el
rectángulo, el triángulo y el círculo. Los argumentos de entrada son el tipo
de figura y los parámetros geométricos de la figura. El valor de salida es el
perímetro de la figura.
A través de la variable local fig el programa selecciona el caso que se va
a ejecutar. Cuando la figura sea el rectángulo, se presenta el caso particular
del cuadrado, el cual se selecciona mediante el if.
Function PPerímetro(fig, par)
% Función que calcula el perímetro de una figura geométrica (rectángulo, triángulo y
círculo)
% fig: indica el tipo de figura
% par: arreglo que contiene los parámetros geométricos de la figura
switch fig
case 1
%Rectángulo
nlength(par)
%Número de parámetros
if n1
%Caso particular del cuadrado
P4*par(1);
else
P2*(par(1)par(2));
end
case 2
%Triángulo
Ppar(1)par(2)par(3);
case 3
%Círculo
P2*pi*par(1);
otherwise
P0;
disp(‘No existe ese caso’) %Muestra por pantalla
end
Para implementar estructuras de control de iteración con for, se emplea la siguiente sintaxis:
for variableini:fin
instrucciones
end
El bloque de instrucciones se ejecutará repetidamente hasta que la variable alcanza su valor final fin. Generalmente la variable toma valores en-
122
Capítulo 5
Herramientas computacionales para ingeniería
teros, y se utiliza dentro del bloque de instrucciones como contador e índice para los diferentes arreglos. Para implementar estructuras de control de
iteración con while, se emplea la siguiente sintaxis:
while expresión
instrucciones
end
El bloque de instrucciones se ejecuta repetidamente mientras la expresión lógica es verdadera.
En el siguiente cuadro se presenta una función que entrega dos arreglos, uno correspondiente a diferentes valores de radios y otro que contiene
las áreas correspondientes a esos radios. Los valores de entrada son el
máximo valor del radio y el tamaño de los arreglos que se desean obtener.
En esta función se utilizó la sentencia for para generar los arreglos de salida
de la función.
function [área, radio]área_r_cir(np, rmax)
Drrmax/np;
for i0:np
radio(i)Dr*i;
área(i)pi*radio(i)^2;
end
Gráficos
MATLAB contiene varias instrucciones para crear gráficos de alta calidad
en dos y tres dimensiones. Para crear un gráfico de dos dimensiones se
emplea la función plot( ). En el argumento de esta función se deben indicar
los pares de variables que se van a graficar. En el siguiente cuadro se muestra el uso de esta función para crear una gráfica del coseno para diferentes
valores del ángulo desde 0 a 2π. En la figura 5.4 se presenta la figura resultante.
>> a0:pi/180:2*pi;
>> ccos(a);
>> plot(a,c)
Por otro lado, también se puede configurar el estilo y el color de la línea, indicándolo entre comillas después del par de variables en la función
plot(), como se muestra a continuación:
>> plot(a,c,‘k-.’)
5.3 MATLAB
123
FIGURA 5.4 Gráfica del coseno
En la instrucción anterior se indica el color mediante la letra k (en este
caso negro) y el tipo de línea mediante el símbolo - . En la figura 5.5 se
muestra el resultado de aplicar estas opciones.
Para agregar otra gráfica a la figura se agrega otro par de datos. Por
ejemplo, para agregar la gráfica del seno, se haría lo siguiente.
>> ssin(a);
>> plot(a,c,‘b-‘,a,s,‘r--‘)
En la figura 5.6 se presenta el resultado de aplicar este comando. La línea correspondiente al seno es roja y discontinua debido a que se indicó
‹r--›.
Para agregar un título, etiquetas a los ejes y leyendas a los gráficos, se
tienen las siguientes funciones:
>> title(‘Función Seno y Coseno’)
>> xlabel(‚a [rad]‘)
>> legend(‚cos(a)‘,‘sen(a)‘)
124
FIGURA 5.5 Gráfica del coseno empleando distinto tipo de
línea
FIGURA 5.6 Gráfica del seno
y el coseno
Capítulo 5
Herramientas computacionales para ingeniería
5.3 MATLAB
125
FIGURA 5.7 Gráfica del
seno y del coseno con título
y leyenda
En la figura 5.7 se presenta el resultado de aplicar las funciones anteriores.
Para crear gráficos tridimensionales de una función de dos variables se
tiene la función surf(). Esta función se puede usar en conjunto con la función meshgrid(), la cual genera los valores de las variables para ciertos intervalos dados de valores de las funciones.
Por ejemplo, si se deseara graficar la función:
z(x, y) x2 y2
En un intervalo de valores de [1, 1] para ambas variables independientes, se emplearían los comandos del siguiente cuadro:
>> [X, Y] meshgrid(-1:0.05:1);
>> ZX.^2Y.^2;
>> surf(X,Y,Z)
En la figura 5.8 se presenta la gráfica en tres dimensiones, resultado de
las instrucciones anteriores.
126
Capítulo 5
Herramientas computacionales para ingeniería
FIGURA 5.8 Gráfica de la función z (x, y ) x 2 y 2
Symbolic Math Toolbox
Como ya se dijo, además de las funciones básicas de MATLAB existe una
gran variedad de librerías especializadas en diferentes áreas de las matemáticas y la ingeniería. Una de ellas es la librería de matemática simbólica.
Esta librería permite trabajar con expresiones matemáticas escritas en términos de variables simbólicas (representadas por caracteres de texto).
Suponga que se desea trabajar con las siguientes funciones de x:
y 3x2 2x 1
zx1
El primer paso es definir las variables simbólicas, mediante el comando
syms, y posteriormente definir las expresiones.
>> syms x y z
>> y3*x^2 2*x 1;
>> zx-1;
Ahora, si se multiplica y por z, el resultado que se obtendría sería el
siguiente:
5.4 Comentarios finales
127
>> y*z
ans (3*x^22*x1)*(x-1)
Como se observa, el resultado de la operación está expresado en términos de la variable simbólica x. La anterior expresión se puede expandir mediante la función expand().
>> expand(y*z)
ans 3*x^3-x^2-x-1
Una función de MATLAB útil es factor(), la cual realiza la factorización de un polinomio.
>> factor(x^22*x1)
ans (x1)^2
Por otro lado, para simplificar expresiones se puede emplear la función
simple().
>> simple((x^22*x1)/(x-1))
ans (x1)^2/(x-1)
Cuando se ejecuta la función simple(), en el Command Window se
despliega toda la serie de operaciones que se realizaron para llegar a la respuesta final.
5.4 Comentarios finales
El desarrollo de habilidades en el manejo de programas de cálculo técnico
para ingeniería es una actividad importante. Una vez dominado el manejo
de este tipo de programas, el siguiente paso es conocer su uso en conjunto
con otro tipo de herramientas CAD y CAE. Naturalmente, la información
obtenida de los análisis realizados en los programas de cálculo técnico (los
128
Capítulo 5
Herramientas computacionales para ingeniería
cálculos de ingeniería) se toma como base para fases posteriores del proceso de diseño, como lo es el diseño de detalle en programas de CAD (por
ejemplo, Inventor®, SolidWorks®, AutoCAD®, etc.). No obstante, esta clase
de programas poseen funciones que permiten un intercambio automatizado de diversas clases de datos.
La forma más elemental de intercambio de información entre programas de cálculo técnico, CAD y CAE, es a través de la importación y exportación de archivos de datos. Existen otras maneras más sofi sticadas de
interacción entre paquetes de ingeniería. En el caso de sistemas electromecánicos, existe una técnica llamada cosimulación. La cosimulación es
una metodología que permite que múltiples componentes de distinta naturaleza (mecánicos, eléctricos, electrónicos, etc.) sean simulados mediante diferentes herramientas de simulación concurrentemente, a través
de un intercambio de información continua. Un ejemplo de esto es el
uso de MATLAB/Simulink en conjunto con programas de simulación de
sistemas multicuerpo, como lo son ADAMS® o NX®. En este esquema se
puede simular el control y la dinámica de un sistema tomando en cuenta
los distintos tipos de elemento involucrados, como los motores (eléctricos,
hidráulicos, neumáticos) y los elementos mecánicos (eslabones, articulaciones, engranes, etc.). Los elementos de control se simularían en
MATLAB/Simulink y la dinámica del mecanismo en ADAMS. Empleando en conjunto estas herramientas se puede analizar y optimizar el sistema de manera global.
EJERCICIOS PROPUESTOS
1. Investigue cuál es el software y las herramientas más utilizadas dentro de la ingeniería mecánica e ingeniería eléctrica.
2. Para a 2, b 8 y c 12, calcule:
a2
+b
c
p=
q pa2
r sen(a) cos(a)
3. Para el siguiente par de vectores y matriz
[]
d
2
4
[] []
e
5
2
1
f
7
6
3
G
[
1
4
5
2
3
6
]
Calcule
sef
t Gf d
u G( f e)
Referencias
129
4. Resuelva el siguiente sistema de ecuaciones:
2x y z 20
x 4y 3z 15
5x 2y z 8
5. Grafique las siguientes funciones para un intervalo de valores de la variable independiente x [0, 10].
f (x) x3 x2
g(x) ex
6. Realice la factorización de las siguientes expresiones:
x2 6x 9
x2 8x 16
x2 10x 25
Referencias en la Web
office.microsoft.com
es.ptc.com
www.maplesoft.com
www.scilab.org
www.mathworks.com
MATLAB. Getting Started Guide.
Referencias
Romero Bauset, J. V., Roselló Ferragud, M. D. y
Zalaya Báez, R. (2010). Fundamentos matemáticos para la ingeniería con MATLAB. Ed.
Universidad Politécnica de Valencia.
Moore, H. (2007). MATLAB para ingenieros, 1a. Ed.
Pearson Education.
Rodríguez, M. G. (2003). Introducción rápida a
MATLAB y Simulink para ciencia e ingeniería.
Ed. Díaz de Santos.
CAPÍTULO
6
Energía, medio ambiente
y desarrollo sustentable
AUTOR:
Dr. Omar Romero Hernández
6.1 Introducción
6.2 Principales problemas ambientales y
energéticos
6.3 Breve recuento histórico (The natural step)
6.4 Herramientas de manejo ambiental
6.5 Flujos de materia y energía
6.6 Análisis de ciclo de vida
6.7 Gestión de riesgos
6.8 Evaluación de impacto ambiental
6.9 Energías renovables
6.10 Ecología industrial
6.11 Sistemas empresariales de manejo
ambiental
6.1 Introducción
El desarrollo y la operación exitosa de las empresas requieren evaluaciones
continuas de oportunidades, riesgos y tendencias. Aunque tradicionalmente las evaluaciones se han llevado a cabo tomando en cuenta factores económicos, políticos y sociales, desde hace algunas décadas aparecieron en la
escena principal dos nuevos agentes del éxito que cada día aumentan su
fuerza: el medio ambiente y la responsabilidad social.
En 1987, con la publicación del libro Nuestro futuro común, por la Comisión Mundial para el Medio Ambiente y el Desarrollo, los hechos concernientes a la conservación de los recursos y al desarrollo sustentable se
volvieron más populares. En este mismo libro se plantea que las empresas
jugarán un papel vital en el futuro y se reconoce que el crecimiento económico y el medio ambiente están inextricablemente unidos.
El propósito de este capítulo es familiarizar al estudiante con las principales tendencias que han acompañado al binomio industria-medio ambiente
en las últimas décadas. También se describen las principales herramientas ambientales que han venido evolucionando, así como su aplicación. Se
hace especial énfasis en tres herramientas: análisis de ciclo de vida, gestión de riesgos y evaluación de impacto ambiental. También se habla
sobre las características e importancia de las energías renovables como fu-
132
Capítulo 6
Energía, medio ambiente y desarrollo sustentable
turo motor de crecimiento y desarrollo sostenido. Finalmente, el documento presenta tendencias a nivel macro, conocidas bajo el nombre de ecología industrial, así como algunos sistemas empresariales de manejo ambiental.
6.2 Principales problemas ambientales
y energéticos
Actualmente el mundo enfrenta uno de los principales retos en la historia
de la humanidad: garantizar un crecimiento económico sostenido, mejorar
las condiciones sociales de la población y, al mismo tiempo, proteger los
recursos naturales y mejorar el medio ambiente. Lamentablemente, la evidencia científica indica que no estamos haciendo lo suficiente y que los
efectos adversos derivados de fenómenos como el calentamiento global
pronto representarán un costo mayor al de las acciones requeridas para
evitarlo.
Desde mediados del siglo pasado la humanidad ha atestiguado una serie de cambios dramáticos en industrialización, niveles de consumo y crecimiento demográfico. Lo anterior ha obligado a la adopción de medidas
globales y locales enfocadas a la atenuación de los desequilibrios e impactos adversos.
Entre las reuniones y acuerdos internacionales de mayor trascendencia
destacan el Protocolo de Montreal (1987), donde se establecen medidas
para disminuir la generación y emisión a la atmósfera de sustancias que
dañan la capa de ozono; la Cumbre de la Tierra (1992), celebrada en Río de
Janeiro, donde se adoptó la Agenda 21 con acciones específicas de los gobiernos enfocadas a disminuir efectos ambientales adversos; el Protocolo
de Kyoto (1998), donde se aborda el problema de las emisiones de gases de
efecto invernadero que contribuyen al calentamiento global de la atmósfera
terrestre y se establecen compromisos por parte de algunos gobiernos para
disminuir la emisión de estos gases, y la Cumbre Mundial de la Tierra
(2002), celebrada en Johannesburgo, donde se abordaron temas globales
relacionados con el acceso al agua potable y servicios de sanidad, disminuir
el consumo de químicos que representan altos riesgos ambientales y a la
salud, proteger la biodiversidad de las especies, entre otros, y se establecieron compromisos económicos y acciones específicas para un desarrollo
sustentable.
A pesar de las modificaciones en los hábitos de consumo energético y
de la crisis económica mundial, el apetito por la energía continúa; para el
año 2050 la demanda mundial de energía será el doble del valor actual. Para
esa fecha, la población mundial habrá aumentado de 6500 millones a 9000
millones de habitantes. Más aún, países como México, China, India y Brasil
estarán integrando millones de habitantes a una economía moderna y con
un estilo de vida que demandará más energía per cápita.
133
6.2 Principales problemas ambientales y energéticos
Año
2025
1995
1980
1960
1900
1700
0
2000
4000
6000
8000
10 000
Millones de habitantes
FIGURA 6.1 Poblacion mundial 1700-2025
Los estudios de prospectiva energética elaborados por organismos internacionales (como la Agencia Internacional de Energía, el Programa de
las Naciones Unidas para el Medio Ambiente, entre otros), muestran que
en las próximas décadas los combustibles fósiles seguirán siendo la fuente
dominante de energía. Sin embargo, cada día se agotan los suministros fácilmente accesibles y económicamente factibles.
La gama de problemas ambientales y energéticos es muy amplia, así
como sus efectos y consecuencias. Los siguientes párrafos comentan sobre
algunos de los principales problemas ambientales y energéticos que afectan
a nuestro planeta.
Crecimiento poblacional: la evolución demográfica puede apreciarse en
la figura 6.1. En ésta se observa que la población mundial aumenta cada vez
con mayor velocidad. En el periodo de 1700 a 1900 la población mundial se
triplicó de 500 a 1500 millones; sin embargo, en 1950 alcanzó la cifra de
2500 millones, y en al año 2000 se dio la bienvenida al habitante 6000 millones del planeta Tierra.
El aumento en la población y las actividades humanas generan presiones en la disponibilidad de recursos naturales, en los alimentos, servicios
de salud, saneamiento, energía y vivienda. Una falta de control y planeación
en el crecimiento de la población puede provocar la pérdida de bosques,
suelos, biodiversidad de especies y el patrimonio cultural, lo cual a su vez
alimenta un círculo vicioso de contaminación y deterioro de aguas, suelos
y atmósfera.
134
Capítulo 6
Energía, medio ambiente y desarrollo sustentable
Partes por millón
350
300
250
1850
1875
1900
1925
1950
1975
2000
FIGURA 6.2 Incremento mundial de CO2 en la atmósfera, 1870-1990
Calentamiento global: el aumento en las concentraciones atmosféricas
de gases de efecto invernadero (principalmente el dióxido de carbono,
CO2) se debe en gran medida a las actividades humanas, particularmente
ocasionadas por la generación de energía y el consumo de combustibles
fósiles. La figura 6.2 indica la contribución de las actividades humanas en
estos gases, lo cual es preocupante y resalta como un problema ambiental
global de atención prioritaria. La comunidad científica internacional considera que el crecimiento no controlado de estos gases provocará aumentos
de entre dos y cinco grados en la temperatura de la superficie de la Tierra.
Aunque a primera vista este aumento de temperatura puede no causar una
impresión de alarma, las consecuencias pueden ser desastrosas. El aumento en la temperatura ocasiona un incremento de los niveles de los océanos,
alteraciones climáticas (sequías e inundaciones) y pérdidas económicas.
Aunado con el problema del calentamiento global, sobresalen también
el consumo de energía y la pérdida de suelos. La generación de energía
está asociada principalmente con el consumo de combustibles fósiles (petróleo, gas y carbón), los cuales generan gases de efecto invernadero como
principal producto de la combustión. La promoción de energías alternativas (solar, eólica, tidal, etc.) es un área de desarrollo tecnológico que cada
día adquiere mayor fuerza en el mundo debido a que disminuye la presión
en el consumo de recursos naturales y, en consecuencia, las emisiones a la
atmósfera. La otra parte de este problema la representan la tala indiscriminada de bosques, los cuales contribuyen al equilibrio atmosférico, ya que
consumen bióxido de carbono en sus procesos y emiten oxígeno. La protección de suelos es una de las alternativas más urgentes para que, en consecuencia, se protejan las especies de flora y fauna, se mantenga el ciclo
hidrológico y se contribuya con el equilibrio ecológico y ambiental.
Existen muchos otros problemas de atención prioritaria, como la generación de residuos tóxicos, la disponibilidad de servicios de salud, la cali-
135
6.3 Breve recuento histórico (The natural step)
Futuro
Aspectos ambientales
Materiales
Emisiones
y energía
y residuos
arrollo
Des
Sistemas
económicos
Aspectos
económicos
s u s t en t a b l e
Bienes y servicios
Aspectos
sociales
Presente
FIGURA 6.3 Desarrollo sustentable
dad de vida en las ciudades, la escasez de agua, la contaminación atmosférica, la degradación de las zonas costeras, etc. Sin embargo, existen
alternativas exitosas para atacar estos problemas y, al mismo tiempo, continuar promoviendo el desarrollo de las naciones. Estas alternativas bien
pueden englobarse dentro del concepto de desarrollo sustentable, el cual se
define como:
…desarrollo que satisface las necesidades del presente sin comprometer
la capacidad de las futuras generaciones para satisfacer sus propias
necesidades.
Este tipo de desarrollo busca reconciliar las necesidades humanas y la
capacidad de carga de los ecosistemas y ser aplicado en toda actividad económica. Así pues, el desarrollo sustentable se basa en tres pilares fundamentales, como se observa en la figura 6.3.
Ante los distintos acontecimientos ambientales y energéticos, la industria y la comunidad científica no se han quedado con los brazos cruzados.
Las iniciativas adoptadas a lo largo del mundo en las últimas décadas se
resumen en la siguiente sección.
6.3 Breve recuento histórico (The natural step)
Las iniciativas de gobierno e industria para incorporar criterios ambientales y de sustentabilidad, asociados con los indicios de preocupación por el
impacto que tienen la actividad de las empresas, empezaron a tener relevancia en la década de los años setenta (Hawken, 2001).
La conciencia ambiental reconocida como tal comienza durante la década de 1970 con la llegada del “Día de la Tierra”, teniendo como efectos la
136
Capítulo 6
Energía, medio ambiente y desarrollo sustentable
1º Era
Complacencia
1º Era
Más allá de la
complacencia
4a Era
Desarrollo
sustentable
3a Era
Eco-eficiencia
Diseño sustentable
Sistemas de administración
integrados
Contabilidad de costos ambientales
Administración del producto/DFE/LCA*
TQEM*/Sistemas de administración ambiental
Participación de accionistas
Prevención de contaminación/Minimización de desperdicios
Control de contaminantes/complacencia
Respuesta
corporativa
Metas de la
industria
Antes de 1970
sin preparación
Ninguna
1970s
reactiva
Estándares
regulatorios
1980s
anticipatoria
Evitar costos:
Reducción de
impacto
Liderazgo
Protección legitimada
Ventaja competitiva
Partnerships
1990s
proactiva
Enfoque de centro
de ganancias:
Eco-eficiencia
Desmaterialización
Administración
ambiental estratégica
2000s
alta integración
Dirección explícita de
metas ambientales:
Administración de
costo ambiental
Productividad de
recursos
Productos de servicio
Marco del natural
step
FIGURA 6.4 Curva de aprendizaje de sustentabilidad en la industria
legislación ambiental en varios países y la primera conferencia ambiental
de la ONU en 1972 en Estocolmo, Suecia, en donde se crea el UNEP (United Nations Environment Program).
Las cuatro principales eras en la curva de aprendizaje de sustentabilidad en las empresas se muestra en la figura 6.4.
A la primera era se le conoce como la “era de la complacencia”, puesto
que “una buena actitud corporativa consistía únicamente en obedecer la
ley” (Frenkel, 2000). Durante esta primera era, la industria pasó de estar
básicamente sin preparación ni metas estratégicas referentes a temas ambientales, a una actitud de complacer los requerimientos legales. El cambio
fue básicamente de una actitud inactiva a una reactiva.
En 1983 la Comisión Mundial de Medio Ambiente y Desarrollo (World
Commission on Environment and Development) crea el concepto de desarrollo sustentable y busca limitar el impacto industrial. La segunda era está
marcada por el desastre de 1984 en Bhopal, India; cuando 15 000 galones
de químicos altamente nocivos fueron accidentalmente liberados, lo que
llevó a las compañías a tener una actitud anticipatoria en su estrategia ambiental. En 1987 se emite el reporte Brundtland (Gro Brundtland, ex primer
ministro de Noruega) durante una conferencia de la UNCED (Conferencia
de las Naciones Unidas para el Desarrollo y Medio Ambiente), momento
en el que se da a conocer la definición de desarrollo sustentable. El enfoque
6.3 Breve recuento histórico (The natural step)
137
estratégico en esta segunda era y el marco ambiental estuvieron canalizados a reducir costos, y al mismo tiempo a reducir los impactos potenciales
de factores ambientales, a través de prevención de contaminación y de adelantarse a la legislación.
La tercera era de conciencia ambiental comienza en la década de 1990
y se caracteriza por términos tales como eco-eficiencia y de-materialización. Las compañías toman acciones más allá de la prevención de actividades contaminantes, reduciendo residuos dañinos para el medio ambiente, y
comienzan a dirigir sus esfuerzos hacia la eco-eficiencia, que atiende al
“metabolismo industrial”. Esta tercera era marca un periodo de integración
emergente, donde la administración ambiental se reestructura de nuevo, y
comienza a ser vista no sólo como un “centro de costo o departamento de
costo”, sino como un “centro de ganancias”. Esto se comienza a aceptar como un factor de negocios legítimo, que encamina a la empresa hacia la
ventaja competitiva y a la minimización de impactos, de tal modo que se
trate de sujetar costos reduciendo materia prima y desechos, y paralelamente se creen oportunidades a través de la innovación. En 1990 el término
de eco-eficiencia comienza a ser utilizado por investigadores suizos (Sturm
y Schaltegger); en 1992, durante la cumbre de Río de Janeiro, se crea la
Agenda 21, y en 1997 se firma el Protocolo de Kyoto.
La cuarta era se extiende más allá de la eco-eficiencia y de mejoras
continuas en el desempeño ambiental, trascendiendo a una nueva visión
guía, que requiere un nuevo marco teórico para la realidad de los negocios.
Frenkel sugiere cuatro puntos clave dentro de esta nueva era:
1. Progreso hacia basura “cero residuos”.
2. Sistemas enteros pensantes: dirigir los problemas a todo el sistema.
3. Hacer que los problemas del mundo sean problemas de la compañía.
4. Ir más allá del enfoque de temas medioambientales y enfocarse al
desarrollo sustentable.
La industria se mueve en un proceso de integración más profundo
donde los productos y los procesos se diseñan bajo un criterio ambiental
(DfE, “Design for the Environment” y DfD, “Design for Disassembly”); básicamente todo el ciclo de vida de los productos se toma en consideración y
se describe como “de cuna a cuna”, en vez de “de la cuna a la tumba”, debido
a que el producto nunca llega al estado basura como tal, en cambio, es reutilizado o reciclado en cualquier momento de su ciclo.
En esta cuarta era de aprendizaje puede encontrarse la responsabilidad
social corporativa (RSC), también llamada responsabilidad social empresarial (RSE). Esta filosof ía y práctica empresarial se define como la contribución activa y voluntaria al mejoramiento social, económico y ambiental por
parte de las empresas, generalmente con el objetivo de mejorar su situación
competitiva, valorativa y su valor añadido.
138
Capítulo 6
Energía, medio ambiente y desarrollo sustentable
La responsabilidad social corporativa va más allá del cumplimiento de
las leyes y las normas, dando por supuesto su respeto y estricto cumplimiento. La RSC establece la posibilidad de generar valor para la empresa y,
al mismo tiempo, mantener un código de conducta con altos estándares de
ética y transparencia. En este sentido, la legislación laboral y las normativas
relacionadas con el medio ambiente y los derechos humanos son el punto
de partida.
Es importante señalar que aunque estas fases del desarrollo corporativo se encuentran en un contexto particular de la historia y el lugar geográfico, no todas las compañías han seguido o siguen este proceso al mismo
tiempo, ya que hay muchos factores, tanto macro como micro, que afectan
a las diferentes empresas en los diferentes momentos de la historia reciente. Actualmente existe un número significativo de herramientas para la administración sustentable en las empresas, las cuales se indican en la siguiente sección.
6.4 Herramientas de manejo ambiental
En la actualidad, un número cada vez mayor de empresas reconoce los beneficios económicos, sociales y ambientales que resultan de la aplicación
de herramientas de manejo ambiental para la toma de decisiones. La figura
6.5 presenta un esquema con las principales etapas que conforman el proGenerales
Política de desarrollo sustentable
Metas
Minimización de residuos
Ecología industrial
Tecnologías limpias, etc.
Metodologías
Metodologías
Toma de decisiones
Cumplimiento de legislación
Seguridad industrial
Protección ambiental, etc.
Requerimientos
Información
EIA
LCA
GR
FIGURA 6.5 Proceso de toma de decisiones bajo un marco de sustentabilidad
Seleccionadas para un problema
de toma de decisiones específico
6.5 Flujos de materia y energía
139
TABLA 6.1 Herramientas básicas para los SEMA
— Análisis de fuerzas impulsoras
— Contabilidad ambiental
— Análisis de barreras
— Instrumentos económicos
— Administración y planeación estratégica ambiental
— Evaluación de productos y tecnología
— Políticas ambientales
— Análisis de ciclo de vida
— Estructuras de manejo ambiental
— Reglas de adquisición
— Auditoría ambiental
— Auditoría en comunicación ambiental
— Educación y capacitación
— Factores humanos
— Administración de riesgos
— Mecanismo de desarrollo limpio
— Evaluación ambiental de sitios
— Administración basada en ecosistemas
— Indicadores ambientales
— El paso natural (The natural step, TNS)
— Reportajes ambientales
— Evaluación de impacto ambiental (EIA)
ceso de toma de decisiones bajo una perspectiva de sustentabilidad. Similar
a otros modelos de decisiones, el proceso inicia con la definición de objetivos generales, un análisis de posibles metodologías a incorporar y, en consecuencia, los requerimientos y restricciones que formarán parte del sistema de decisión. La parte inferior del diagrama plantea la necesidad de
utilizar herramientas y técnicas específicas a cada problema y requerimiento de información, por ejemplo: i. la evaluación de impacto ambiental, ii. el
análisis de ciclo de vida o iii. la gestión de riesgos.
Existen 22 herramientas básicas (tabla 6.1) para los Sistemas Empresariales de Manejo Ambiental (SEMA). Cada herramienta tiene las siguientes
características:
•
•
•
Se aplican de la misma manera, habiendo sido estandarizadas o en
proceso de ser estandarizadas.
Tienen instrucciones específicas a seguir.
Deben brindar esencialmente los mismos resultados cuando lo
efectúan diversos profesionales en circunstancias similares.
6.5 Flujos de materia y energía
Al hablar de balances de materia y energía, invariablemente se toman en
cuenta dos leyes fundamentales de la f ísica clásica: la ley de la conservación
de la masa y la ley de la conservación de la energía. Ambas leyes indican
que la suma algebraica de entradas y salidas de materia o energía en un
sistema deben ser iguales a cero. Ésta es una gran herramienta para los es-
140
Capítulo 6
Energía, medio ambiente y desarrollo sustentable
Acumulación
Entrada
Salida
Descomposición
FIGURA 6.6 Diagrama
de balance de materia
Fronteras del
sistema
tudios de impacto ambiental, ya que tiene muchas aplicaciones, como el
estudio de los cambios climáticos, la contaminación térmica y la dispersión
de contaminantes al aire.
La ley de la conservación de la materia dice que cuando una reacción
química ocurre, la materia no se crea ni se destruye, solamente se transforma. Este concepto nos ayuda a determinar el destino de la materia, que va
de un lugar a otro, por medio de ecuaciones de balance de materia. Para
esto, primero se debe definir la región o área que será analizada. Una región
de análisis puede variar desde un matraz, donde se efectúa una reacción
química, hasta un lago, el espacio aéreo de una ciudad o el mundo entero,
de manera que deben crearse fronteras imaginarias alrededor de una región. En la figura 6.6 se observa que se definen tanto el flujo de materiales
que entran y salen de la región, como la acumulación y descomposición que
ocurren en la misma.
Una sustancia que entra a la región de estudio puede seguir tres caminos diferentes. Una parte puede salir de la región sin cambio alguno, otra
parte se puede acumular dentro del área de estudio y la parte restante se
puede convertir en alguna otra sustancia al sufrir una reacción química. De
manera que para cualquier sustancia que se analice se aplica la ecuación de
balance de materia:
Tasa de
Tasa de
Tasa de
Tasa de
entrada salida descomposición acumulación
(Ec. 6.1)
Se pueden realizar algunas simplificaciones a la ecuación 6.1 cuando se
asumen condiciones de régimen permanente o de equilibrio. En un sistema
de régimen permanente la tasa de entrada de materia es igual a la tasa de
salida, debido a que la tasa de acumulación y la tasa de descomposición son
iguales a cero. Algunos ejemplos de sustancias que se estudian en modelo
de régimen permanente son sólidos que se disuelven en el agua, metales
pesados que se encuentran en la tierra y dióxido de carbono presente en el
aire. Observe el sistema de régimen permanente en la figura 6.7.
El sistema estudiado puede tratarse de un estanque. Una de las entradas al sistema es una corriente de agua que fluye a una tasa Qc (volumen/
tiempo). Esta corriente tiene una concentración de contaminante Cc (masa/volumen). Otra entrada es una corriente de desechos que fluye a una
141
6.5 Flujos de materia y energía
Tasa acumulada 0
Tasa descomp 0
Corriente
Qc
Qm
Cc
Cm
Mezcla
Qd
Q Flujo (V/t)
C Concentración (m/V )
Cd
Desechos
Tasa entrada Tasa salida
CsQs CwQw CmQm
FIGURA 6.7 Sistema de régimen permanente
tasa Qd con una concentración de contaminante Cd. La salida es una mezcla
con tasa de flujo Qm y concentración de contaminante Cm. Al estar en un
sistema de régimen permanente, el balance de materia basado en la ecuación 6.1 es:
CcQc CdQd CmQm
(Ec. 6.2)
Ejemplo 6.1
Se tiene un río alimentado por una corriente contaminada que fluye a
4 m3/s y tiene una concentración de contaminante de 8 mg/L. Además,
existe una corriente de desechos que entra al río a 1 m3/s con una concentración de contaminantes de 10 mg/L. Si se supone que los contaminantes no
reaccionan, ¿cuál es la concentración de contaminante a la salida del río?
Solución
Cm (CcQc CdQd/Qm (CcQc CdQd)/(Qc Qd)
Al sustituir los valores del ejemplo:
Cm (8 mg/L * 4 m3/s 10 mg/L * 1 m3/s)/(4 m3/s 1 m3/s)
Cm 8.4 mg/L
Balances de energía: una definición de energía es la capacidad de realizar trabajo, donde la energía se puede expresar como el producto de una
fuerza y el desplazamiento de un objeto causado por esa fuerza. Sin embargo, la segunda ley de la termodinámica dicta que cuando se realiza un trabajo, invariablemente hay ineficiencia. Una porción de la energía del proceso acabará como desperdicio en forma de calor. En la figura 6.8 se observa
una planta generadora de potencia.
142
Capítulo 6
Energía, medio ambiente y desarrollo sustentable
Gases de desecho
Electricidad
Vapor
Generador
Caldera
Turbina
Entrada agua fría
Agua
Enfriamiento del agua
Combustible
Bomba de
alimentación
de caldera
Aire
Condensador
Salida de agua caliente
FIGURA 6.8 Planta generadora de potencia
Para cualquier sistema se observa lo siguiente:
neto
E total de masa
E total de masa
E total que cruza
Cambio
de E en sistema
el sistema como Q y W
entrando al sistema
dejando el sistema (Ec. 6.3)
Un sistema donde la materia y la energía fluyen a través de las fronteras
se denomina abierto. Para los sistemas cerrados, no hay movimiento de
masa que pase por las fronteras. La suma de todas las formas microscópicas de energía en un sistema se conoce como energía interna y se representa con el símbolo U. El total de energía E que contiene una sustancia se
describe como la suma de su energía interna U, su energía cinética KE y su
energía potencial PE.
Así, llegamos a la siguiente ecuación:
E U KE PE
(Ec. 6.4)
En muchos casos, la energía neta que se suma a un sistema ocasiona un
incremento en la temperatura. La cantidad de energía que se necesita para
elevar en 1C una unidad de masa, se conoce como calor específico. Para
líquidos o sólidos el calor específico se puede considerar como una constante que varía ligeramente con la temperatura; sin embargo, para los gases
6.5 Flujos de materia y energía
143
este concepto se complica. Parte del calor que se aplica a un gas ocasiona
un aumento en su temperatura, otra parte ocasiona un aumento en el volumen. Es por esto que se introduce el concepto de la entalpía H. La entalpía
de una sustancia se define de la siguiente manera:
H U PV
(Ec. 6.5)
Donde U es la energía interna, P es la presión y V el volumen al que se
encuentra el gas. La entalpía de una unidad de masa de cualquier sustancia
depende sólo de la temperatura. Cuando un proceso ocurre sin observar
cambios de volumen, la relación entre la energía interna y el cambio de
temperatura es:
ΔU mcvΔT
(Ec. 6.6)
Donde cv es el calor específico a volumen constante. La ecuación para
cambios que ocurren cuando se tiene presión constante es:
ΔH mcpΔT
(Ec. 6.7)
Donde cp es el calor específico a presión constante.
Ejemplo 6.2
¿Cuánto tiempo se llevará calentar agua en un calentador eléctrico de agua
de 30 gal si se quiere elevar la T de ésta de 40°F a 120°F y se sabe que el calentador tiene una potencia de 6 kW? Suponga que toda la energía eléctrica
se convierte en Q en el agua y que tanto la energía necesaria para elevar la T
del tanque como las pérdidas de Q del tanque al exterior son despreciables.
Energía suministrada 6 kW * ΔT h 6ΔT kWh
Solución
Debido a que no hay pérdida de energía en el proceso, se tiene que la salida
de energía es igual a cero. El cambio en energía almacenada corresponde al
agua que se caliente de 40°F a 120°F. Considerando además que el agua pesa
8.34 lb/gal, se tiene:
Cambio en la energía almacenada mcΔT
30 gal * 8.34 lb/gal * 1 Btu/lb°F * (120 – 40)°F
20 103 Btu
Al igualar la energía suministrada con el cambio en la energía almacenada:
6ΔT kWh * 3412 Btu/kWh 20 103 Btu
ΔT 0.9769 h
144
Capítulo 6
Energía, medio ambiente y desarrollo sustentable
Los balances de materia de energía son una de las piezas fundamentales para la aplicación de la mayoría de las herramientas de administración
ambiental. En particular, estos balances permiten llevar a cabo análisis de
ciclo de vida, evaluaciones de impacto ambiental y gestión de riesgos, tal y
como se presenta en las siguientes secciones.
6.6 Análisis de ciclo de vida
El análisis de ciclo de vida (LCA, por sus siglas en inglés), es un método
para evaluar “toda la vida de un producto, proceso o actividad”. Esto incluye
las siguientes etapas: adquisición de materia prima, manufactura, distribución y venta, uso, reuso y mantenimiento, reciclaje y manejo de los desperdicios. Esto se hace con el objetivo de crear productos que sean menos dañinos al medio ambiente.
Por otra parte, es importante destacar que además de “productos”, se
pueden analizar sistemas de servicios.
“La creciente preocupación de la importancia que tiene la protección
ambiental, y los posibles impactos asociados con un producto que se manufactura y consume, han aumentado el interés en el desarrollo de métodos
que ayuden a estudiar y reducir tales impactos. Una técnica que se ha desarrollado para este propósito es el análisis de ciclo de vida” (ISO 14040:1997).
En general, las categorías de impacto ambiental que requieren de mayor consideración son el uso de recursos, la salud humana y la afectación
ecológica. Un análisis de ciclo de vida puede traer consigo los siguientes
beneficios para:
•
•
•
•
Identificar oportunidades en donde se puedan mejorar aspectos
ambientales de los productos en varias etapas de su vida.
Tomar decisiones en la industria o el gobierno (e.g., planeación estratégica, diseño de productos, etc.).
Seleccionar de indicadores relevantes para evaluaciones ambientales.
Diseñar mercadotecnia (etiquetas de “ambientalmente amigable”).
El alcance, las fronteras y el nivel de análisis de un LCA dependen del
propósito del estudio. La profundidad de un estudio de LCA puede diferir
considerablemente dependiendo de las metas a las que se quiere llegar. Las
limitaciones de un análisis de ciclo de vida son:
•
•
Los supuestos y parámetros utilizados en el estudio pueden ser
subjetivos.
Los modelos utilizados para el análisis de inventarios o para analizar los impactos ambientales están limitados por sus supuestos y
pueden no estar disponibles para todos los impactos o aplicaciones.
6.6 Análisis de ciclo de vida
•
•
145
Los resultados del LCA enfocados en asuntos globales y regionales
pueden no ser apropiados para aplicaciones locales; es decir, las
condiciones locales pueden no estar bien representadas por condiciones globales o regionales.
La precisión de un estudio de LCA puede estar limitada por la accesibilidad o disponibilidad de datos relevantes o por la calidad de
los datos.
Un LCA consiste de tres componentes:
1. Un inventario de desperdicios, emisiones, materia prima y energía
asociados al ciclo de vida entero del producto, desde que se extrae
la materia prima hasta su disposición final como basura.
2. Un análisis de los impactos ambientales asociados a los desperdicios, emisiones y al uso de materia prima y energía.
3. Un análisis para el mejoramiento, donde se busquen mecanismos
para reducir los impactos ambientales adversos.
Lamentablemente, de estos tres componentes sólo la etapa de inventario está bien desarrollada. El análisis de los impactos ambientales aún es
muy conceptual y la implementación de técnicas de mejoramiento está limitada por las carencias que hay en las herramientas para evaluar los impactos en un ciclo de vida.
En la figura 6.9 se observa la estructura de un LCA. Observe que todas
las etapas deben interpretarse constantemente para entender el sentido
exacto del estudio.
Definición de
objetivos y
alcances
Análisis de
inventarios
FIGURA 6.9 Metodología
para el análisis de ciclo de
vida
Análisis de impacto
ambiental
Interpretación
146
Capítulo 6
Energía, medio ambiente y desarrollo sustentable
Emisiones
Emisiones
Energía Materiales
Materia prima
Emisiones
Energía Materiales
Manufactura de
material
Manufactura de
producto
Energía Materiales
Uso del
producto
Disposición del
producto
Reciclaje de producto
Re-manufactura de producto
Reciclaje de materiales
FIGURA 6.10 Análisis de ciclo de vida de un producto
Para la primera etapa, el inventario, se deben considerar todas las entradas y salidas de energía, materia y emisiones en todas las etapas del producto. Sin embargo, esto no se puede hacer sin antes haber definido fronteras. Esto es de particular importancia, ya que cuando cualquier parte del
sistema cambie, otras partes pueden verse afectadas.
Una vez que se han establecido las fronteras, entonces se estima el total
de emisiones generadas en el sistema. En la figura 6.10 se observa un sistema limitado por fronteras (punteado azul) y que muestra todas las “entradas” y “salidas” que deben considerarse.
Posteriormente, una vez que se han acumulado las emisiones generadas en la vida del producto por categorías, se procede a hacer el análisis del
impacto ambiental. En esta segunda etapa se observan cuáles son las categorías con mayor impacto. Algunas de las categorías más importantes son:
•
•
•
•
•
Índice de calentamiento global (GWP).
Potencial de degradación del ozono estratosférico.
Creación de ozono fotoquímico.
Demanda química y biológica de oxígeno.
Volúmenes críticos de aire y agua.
Sin embargo, es importante considerar que para cada caso de estudio
la categoría más importante puede variar. Para algunas ciudades puede ser
más importante evitar la formación de ozono fotoquímico, mientras que
para otros casos la demanda química y biológica de oxígeno define de mejor manera la afectación que se está haciendo al medio ambiente.
Finalmente, en la etapa de mejoramiento la implementación de una
buena estrategia o política ambiental depende de la precisión de los dos
pasos anteriores. Solamente cuando se tiene una comprensión exacta de un
6.7 Gestión de riesgos
147
sistema se sabe cuáles son las fuentes de afectación que se quieren evitar.
De otra forma, las alternativas que se adopten pueden ser poco precisas o
tener un costo muy elevado para que comiencen a reflejar un cambio positivo importante en el impacto ambiental.
6.7 Gestión de riesgos
Una de las tendencias más importantes desde los años ochenta, en cuanto
a política ambiental se refiere, es la inclusión del análisis de riesgos y la
gestión de riesgos. El estudio del riesgo es indispensable cuando se trata el
tema de la salud pública. Originalmente se asumía que para cada contaminante existe un límite permisible de tolerancia por parte del cuerpo humano, y que la exposición a concentraciones menores a estos límites no produciría ningún daño. Sin embargo, se sospecha que muchas sustancias
pueden generar cáncer. Es por eso que ahora se mantiene el supuesto que
la exposición mínima a tales sustancias cancerígenas crea riesgo.
Estrictamente, el riesgo se define como la probabilidad de sufrir un
daño o una pérdida. Cuando un daño se puede medir (personas al mes heridas por accidentes), el riesgo se calcula mediante la probabilidad de que
ocurra una acción multiplicado por la severidad del daño:
Riesgo (Probabilidad) * (Severidad del daño)
(Ec. 6.8)
Sin embargo, en ocasiones las consecuencias negativas de un evento no
se pueden cuantificar. Un ejemplo de lo anterior es la muerte; nadie puede
estar poco o muy muerto. Otro ejemplo es el cáncer, se tiene o no se tiene
cáncer. Para tales eventos, el riesgo se define como la probabilidad de que
ocurra el daño. Comúnmente, los términos “riesgo” y “peligro” son confundidos. “Peligro” es un término descriptivo que se refiere a la capacidad intrínseca que tiene algo de causar daño. El peligro es la fuente del riesgo. Una
sustancia dañina a la salud representa peligro; sin embargo, esa sustancia
no implica ningún riesgo hasta que haya exposición.
Desde la perspectiva de la industria, los factores de riesgo que típicamente se consideran son riesgos de trabajo por: operación de equipos, manejo de sustancias y ambiente de trabajo.
El problema al que se enfrenta toda industria consiste en determinar
con precisión el “máximo” nivel permisible o el valor al cual no se observan
efectos adversos a la salud o al medio ambiente. Hoy en día, las empresas a
menudo utilizan la evaluación de riesgos ambientales para guiar sus decisiones de negocios, incluyendo acciones como (Charles A. Puttinger, Procter & Gamble, E.U.):
•
La elección de sustancias alternativas (por ejemplo, más seguras,
más baratas o más efectivas).
Capítulo 6
Energía, medio ambiente y desarrollo sustentable
Cancerígeno
modelo lineal
—sin umbral—
Cancerígeno
modelo no-lineal
—sin umbral—
Riesgo
148
No cancerígeno
Umbral (threshold)
Dosis
FIGURA 6.11 Evaluación dosis-respuesta
•
•
La evaluación de sus operaciones (por ejemplo, desde la perspectiva de sus emisiones a fin de reducirlas).
El establecimiento de prioridades de remediación de sitios contaminados (para alcanzar un nivel de riesgo aceptable).
Típicamente, la metodología para la evaluación de riesgos considera
cuatro pasos fundamentales:
1. Identificación de peligros: proceso para determinar si una sustancia química está relacionada con efectos adversos en la salud.
2. Evaluación dosis-respuesta:
•
•
Relación entre dosis de sustancia e incidencia de un efecto (de
salud) adverso.
Respuesta cancerígena o no cancerígena. Experimento de corto plazo (agudo) o largo plazo (crónico).
Incluye método para extrapolar datos animales a los seres humanos. (Véase figura 6.11.)
3. Evaluación de la exposición: determinación del tamaño y naturaleza de la población expuesta. Periodo de la exposición y concentración del contaminante. Se consideran al menos tres factores: el
comportamiento del contaminante en el ecosistema, las cantidades a la que está expuesta la población por ingesta, respiración o
contacto con la piel y, finalmente, los factores generales de la población. (Véase figura 6.12.)
4. Caracterización del riesgo: considera los tres pasos anteriores y
genera un estimado de la magnitud del problema.
149
6.7 Gestión de riesgos
Dirección predominante del viento
Medio de
transporte (aire)
Punto de
exposición
Fuente de descarga
(volatización)
Ruta de
exposición
por inhalación
Ruta de
exposición
por ingestión
Vía de exposición por agua
Vía de exposición por aire
Fuente de descarga
(filtraciones de suelo)
Tabla de agua
Medio de transporte
(agua en la superficie)
Flujo de agua
subterránea
FIGURA 6.12
5. Gestión de riesgos: evalúa las posibles alternativas para mitigar o
enfrentar el riesgo.
La gestión de riesgos se define como:
…evaluar alternativas… acciones y seleccionar entre éstas… tomando
en cuenta información política, social, económica y técnica con la información relacionada con el riesgo para desarrollar, analizar y comparar
opciones regulatorias, y elegir la respuesta más apropiada ante un riesgo potencial a la salud o al medio ambiente (The Environmental Resources Management Group).
Para la Asociación Nacional de la Industria Química sus objetivos específicos en el manejo de sustancias de la industria son:
1. Respaldar la competitividad de la industria a través de un programa de mejora continua en aspectos relacionados con el medio ambiente, la seguridad y la higiene.
2. Crear una imagen positiva de la industria que redunde en la disminución de la presión ejercida por el gobierno y la sociedad.
3. Evitar posibles acciones unilaterales de otros países que obstaculicen las exportaciones del sector bajo el argumento de subsidios
verdes.
150
Capítulo 6
Energía, medio ambiente y desarrollo sustentable
Novo
Nordisk
Red de entrega
para NovoSlam
Ácido
sufúrico
Kemira
Componentes
ecológicos
Azufre líquido
Lago
Tisso
Refinería
statoil
Residuos sólidos para
uso en agricultura y
granja de peces
Gas
Planta de
tratamiento
Invernaderos
Fiordo
Vapor
Agua de desecho
Alabastro
Calor de desecho
Vapor
Gas
Agua de enfriamiento
Fábrica de
paneles de
pasta cerámica
Gyproe
Planta de
potencia
ASNAES
Cenizas volátiles,
residuos sólidos
Calor de desecho
Emisiones de aire
Calefacción al
municipio
Transf. de materiales
Extracción y/o
desecho de agua
Notas:
(1) Esta figura no está dibujada a escala, ni pertenece a un sitio geográfico exacto.
(2) Residuos inusuales resultado de todas las actividades del ecoparque industrial son liberados
eventualmente en la biosfera.
FIGURA 6.12
4. Convertir la responsabilidad integral en una herramienta muy poderosa en la mercadotecnia de las industrias.
5. Procurar, en primera instancia, el cumplimiento cabal de la legislación vigente.
6.8 Evaluación de impacto ambiental
Impacto ambiental es el efecto causado por las acciones del hombre sobre el
medio ambiente. Los impactos o efectos de las acciones de desarrollo pueden ser favorables o desfavorables (para el ecosistema o una parte del mismo). El impacto ambiental está constituido tanto por los cambios en las
características ecológicas o “impacto ecológico”, como por los aspectos que
caen en los “impactos socioeconómicos y culturales” del ambiente humano. Ambos tipos de impacto van en detrimento de la productividad del
ecosistema y de su capacidad para amortiguar los procesos degenerativos
6.8 Evaluación de impacto ambiental
151
que impiden el desarrollo al disminuir la calidad de vida. Por esta razón, la
mayoría de las evaluaciones de impacto ambiental hacen énfasis en los impactos negativos.
También se tiene la siguiente definición: “Modificación del ambiente
ocasionada por la acción del hombre o de la naturaleza” (Art. 3o., fracc.
XIX, Ley General del Equilibrio Ecológico y Protección al Ambiente,
LGEEPA).
En toda evaluación de impacto ambiental se deben clasificar los impactos para comprenderlos mejor:
Impacto primario (directo o de primer orden): cualquier efecto en el
ambiente biof ísico o socioeconómico que se origina de una acción directa
relacionada con el proyecto.
Impacto secundario (indirecto o inducido): efectos sobre el ambiente
biof ísico y socioeconómico que se desprenden de la acción, pero no se inician directamente por la misma.
Impacto acumulativo: los efectos de este impacto se suman directamente, o en forma sinérgica, a condiciones ya presentes en el ambiente o a
las de otros impactos.
Impacto a corto plazo: aquel cuyos efectos significativos se presentan
en periodos relativamente breves.
Impacto a largo plazo: es aquel cuyos efectos significativos ocurren en
lapsos distantes al inicio de la acción.
Impacto inevitable: aquel cuyos efectos no pueden evitarse total o
parcialmente dadas las características específicas del proyecto y que, por lo
tanto, requiere de la implantación inmediata de acciones correctivas.
Impacto irreversible: estos impactos provocan una degradación en el
ambiente de tal magnitud, que rebasan la capacidad de amortiguación y
recuperación de las condiciones originales.
Impacto residual: es aquel cuyos efectos persistirán en el ambiente,
por lo que requieren de la aplicación de medidas de atenuación que consideren el uso de la mejor tecnología disponible.
Impacto reversible: sus efectos en el ambiente pueden ser mitigados
de forma tal, que se restablezcan las condiciones preexistentes a la realización de la acción.
No hay una definición general y aceptada de EIA. Gilad (precursor de
esta disciplina) la define como: “el examen sistemático de las consecuencias
ambientales probables de proyectos, programas, planes y políticas propuestas”.
Los resultados de una EIA se integran y presentan en un documento
conocido como “Declaración de Impacto Ambiental” o “Manifestación de
Impacto Ambiental”. Estos documentos muestran las implicaciones ambientales, sociales y de salud de diferentes alternativas de acción.
152
Capítulo 6
Energía, medio ambiente y desarrollo sustentable
Objetivos de una evaluación de impacto ambiental:
•
•
•
Identificar los efectos que puede causar un proyecto sobre el medio ambiente.
Estimar la magnitud de los efectos.
Prevenir los efectos sobre el medio y evitarlos o minimizarlos.
Una de las principales críticas a las EIA es que causan costos y demoras
considerables. Se deben tomar en cuenta características relacionadas con el
tamaño del proyecto, el costo y los requerimientos de energía, entre otros.
Para ilustrar en qué se aplican evaluaciones de impacto ambiental, a
continuación se presentan obras o actividades sujetas a dicho procedimiento (Art. 28, LGEEPA):
1. Obras hidráulicas, vías generales de comunicación, oleoductos,
gasoductos, carboductos y poliductos.
2. Industria del petróleo, petroquímica, química, siderúrgica, papelera, azucarera, del cemento y eléctrica.
3. Exploración, explotación y beneficio de minerales y sustancias reservadas a la Federación en los términos de las leyes Minera y Reglamentaria del Artículo 27 Constitucional en Materia Nuclear.
4. Instalaciones de tratamiento, confinamiento o eliminación de residuos peligrosos, así como residuos radiactivos.
5. Aprovechamientos forestales en selvas tropicales y especies de difícil regeneración.
6. Plantaciones forestales.
7. Cambios de uso del suelo de áreas forestales, así como en selvas y
zonas áridas.
8. Parques industriales donde se prevea la realización de actividades
altamente riesgosas.
9. Desarrollos inmobiliarios que afecten los ecosistemas costeros.
10. Obras y actividades en humedales, manglares, lagunas, ríos, lagos
y esteros conectados con el mar, así como en sus litorales o zonas
federales.
11. Obras en áreas naturales protegidas de competencia de la Federación.
12. Actividades pesqueras, acuícolas o agropecuarias que puedan poner en peligro la preservación de una o más especies o causar daños a los ecosistemas.
13. Obras o actividades que correspondan a asuntos de competencia
federal, que puedan causar desequilibrios ecológicos graves e irreparables, daños a la salud pública o a los ecosistemas, o rebasar los
límites y condiciones establecidos en las disposiciones jurídicas
relativas a la preservación del equilibrio ecológico y la protección
del ambiente.
6.9 Energías renovables
153
6.9 Energías renovables
Afortunadamente, existen recursos energéticos que son casi inagotables.
En tal categoría se incluyen las energías geotérmicas, de la marea y solar en
todos sus aspectos: gradientes térmicos del océano, corrientes oceánicas,
biomasa, viento, hidroelectricidad y la radiación solar directa. Aun cuando
tales fuentes son inagotables en cuanto a que nos proveerán de energía por
cualquier extensión de tiempo considerable, la cantidad de energía que se
puede extraer de ellas es muy limitada.
Cualquier persona ha sentido en alguna ocasión los efectos de los rayos
solares sobre el mismo, o sobre los objetos expuestos a ellos. Un ejemplo
de lo anterior puede ser una lámina que ha estado bajo los rayos del Sol,
ésta nos quema cuando la tocamos. Además, muchas culturas alrededor del
mundo se han desarrollado con ayuda de la luz y el calor provenientes
del Sol.
Si toda esta energía se pudiera aprovechar en beneficio nuestro, ya sea
en aspectos o actividades de nuestra vida diaria, como cocinar y refrigerar
alimentos, obtener agua potable o calentar agua para bañarnos, iluminarnos en la noche o ver televisión, el impacto ambiental que se tiene debido a
la generación de energía se reduciría considerablemente. Existen equipos
que pueden transformar esta radiación solar en energía eléctrica o incluso
mover un automóvil con biocombustibles, y lo mejor de todo, con un daño
mínimo al ambiente. Mientras la humanidad exista en la Tierra esta energía
estará disponible para ser usada.
En términos generales, podemos considerar a la energía solar como
nuestra fuente energética total, porque excluyendo la geotermia, todas las
demás fuentes se derivan de la radiación de esta estrella.
El Sol se encarga de calentar la atmósfera terrestre, causando gradientes de temperatura, lo que trae consigo diferencias de presión y, como consecuencia, los vientos, origen de la energía eólica. El Sol también evapora el
agua, que bajo las condiciones atmosféricas propicias se precipita en forma
de lluvia en zonas más altas, obteniendo con esto energía potencial, la cual
puede ser aprovechada con tecnologías de turbinas hidráulicas para generar electricidad o accionar equipos mecánicos.
También el proceso de fotosíntesis de los vegetales aprovecha como
fuente energética al Sol, llevando a cabo reacciones químicas, las cuales la
transforman en energía almacenada dentro de éstos y puede ser aprovechada mediante combustión directa o transformada a otros combustibles, como el metanol y el etanol. Al ser el reino vegetal el principio de las cadenas
alimenticias en los ecosistemas, la energía contenida en ésta es transferida
al ser consumidas por los seres herbívoros y así a los diversos aprovechamientos de la biomasa que se pueden obtener.
La inmensa cantidad de energía eléctrica que otorgan las plantas generadoras de energía y la dependencia que estos sistemas tienen con combustibles fósiles es tal, que no existe tecnología energética alternativa que fun-
154
Capítulo 6
Energía, medio ambiente y desarrollo sustentable
Residuos no
renovables
0.2%
Gas natural
20.9%
Nuclear
5.9%
Carbón
26.5%
Fuentes
renovables
12.4%
Petróleo
34.1%
Hidro
2.2%
Combustibles y
residuos
renovables
9.6%
Otros*
0.6%
*Geotérmica, solar, eólica, maremotriz.
Los porcentajes parciales han sido redondeados.
FIGURA 6.14 Distribución de la oferta de energía primaria mundial en el año 2007 a partir de distintas
fuentes (total 12 026 Mtoe). Fuente: AIE, 2009
cione como sustituto en los próximos años. Un análisis al panorama
internacional indica que tomará varios años como mínimo para que nuevas
tecnologías de generación eléctrica se diseñen, construyan e implementen.
En el año 2007, el Suministro Total de Energía Primaria (TPES, por sus
siglas en inglés) fue de 12 026 Mtoe*, de los cuales 12.4% o 1492 Mtoe fueron producidos a partir de fuentes renovables de energía. La figura 6.14
muestra también que los combustibles fósiles continúan siendo la principal
fuente de energía, con más de 80% del total. Finalmente, la energía nuclear
se ubica en 5.9% del total mundial (AIE, 2009).
El reporte REN21, elaborado por un comité de expertos internacionales con la colaboración de varios investigadores en diversos países, es una
de las referencias internacionales sobre el estado de las energías renovables
en el mundo. Los principales resultados de este reporte indican que a pesar
de la importante disminución en la actividad económica mundial, las inversiones en energías renovables han mantenido su crecimiento.
En respuesta a la crisis económica, algunos países han dirigido estímulos para la creación de empleos verdes, originados por las necesidades de
generación a partir de fuentes renovables de energía. La capacidad mundial
de generación de energía a partir de fuentes renovables (excepto hidráulica) alcanzó la cifra de 280 000 MW en el año 2008, 16% por encima de los
240 000 MW reportados en el año 2007. Este incremento en la capacidad
*toe: se define como tonelada equivalente de petróleo (tonne of oil equivalent). Esta unidad es
equivalente a 107 kcal (41.868 GJ)
6.10 Ecología industrial
155
de generación sigue siendo motivado, en gran parte, por dos preocupaciones: el cambio climático y la seguridad energética.
6.10 Ecología industrial
La ecología industrial (EI) es una disciplina científica a macroescala encargada de analizar los sistemas industriales de forma integral, es decir, considerando no sólo al sistema de forma aislada, sino tomando también en
cuenta su entorno, tanto tecnológico como ambiental, y las interacciones
que existen entre ambos.
Su objetivo principal es la optimización en el manejo de flujos de materiales y energía, utilizando de forma más eficiente los recursos y evaluando los factores económicos que inciden en su implementación.
El surgimiento de esta rama de estudio se da debido a la creciente necesidad de conciliar la esfera económica con la ambiental. Por un lado, se
buscaba minimizar el efecto negativo de las actividades industriales hacia
el medio, y por otro, mejorar el uso de los recursos para reducir los costos.
La EI agrega ambos aspectos, permitiendo con ello contribuir a la iniciativa
de desarrollo sustentable que actualmente se busca instituir.
Uno de los pilares de la ecología industrial es el rechazo al concepto de
desperdicio. Esto significa que, de alguna forma, todo puede ser reutilizado, generalmente con muy buenos resultados. Lo que se busca en este sentido es darle un valor a todo lo que se genera en un proceso industrial, no
importa que se trate de un desecho, ya que éste puede llegar a ser útil para
un proceso completamente diferente. De este modo se elimina la necesidad
de verter los residuos en el ambiente y se reduce la extracción de materias
primas.
Una herramienta crucial para poder desarrollar la EI es el análisis de
los flujos de materiales y energía que existen dentro del sistema que se desea evaluar. Se debe tener un control estricto de todos los flujos involucrados, para que así se les aproveche al máximo. No hay que perder de vista
que pérdidas imprevistas de materiales o de energía pueden llegar a impactar los costos de manera significativa, dependiendo del tipo de flujo que se
trate.
La ecología industrial examina formas de reconfigurar la actividad industrial en respuesta al conocimiento de las implicaciones que tiene sobre
el ambiente, fomentando el desarrollo de métodos de producción más
orientados hacia los sistemas. En ese contexto, un concepto importante es
la simbiosis industrial, que se refiere al intercambio de flujos de materiales
y de energía entre organizaciones individuales localizadas muy cercanamente unas de otras.
Para poder tener simbiosis industrial y procesos a macroescala, es necesario que individualmente cada empresa instituya sus propias prácticas
ambientalmente favorables e implemente medidas que permitan una pos-
156
Capítulo 6
Energía, medio ambiente y desarrollo sustentable
terior interacción con otras entidades, tal y como se comportaría un ser
vivo dentro de un ecosistema.
La manifestación más representativa de la ecología industrial son los
parques eco-industriales, los cuales se definen como comunidades de negocios que cooperan entre sí y con la comunidad local para compartir recursos eficientemente (información, materiales, agua, energía, infraestructura y hábitat natural), y así conseguir ganancias económicas, mejoras en la
calidad ambiental y desarrollo en los recursos humanos involucrados. El
mejor ejemplo de este tipo de sistemas es el Parque de Kalundborg, en Dinamarca (figura 6.13). Los principales componentes del sistema son cuatro
grandes empresas:
1. Statoil: refinería de petróleo.
2. Asnæs Power Station: central eléctrica, con base en la incineración
de carbón.
3. Gyproc: empresa manufacturera de cartón de yeso (gypsum).
4. Novo Nordisk: empresa farmacéutica líder en la producción de insulina, penicilina y enzimas.
Existen en total once enlaces f ísicos que vinculan a dichas empresas
entre sí, compartiendo una red de usuarios dentro del distrito. A continuación se mencionan algunos de los intercambios que se llevan a cabo en este
complejo industrial:
•
•
•
•
La refinería y la central eléctrica intercambian vapor, gas y agua
para enfriamiento.
El calor de desecho de la central se distribuye a todo el distrito, a
invernaderos y a una granja de peces.
Asnæs Power Station le transfiere a Gyproc dióxido sulfúrico, a
partir del cual se obtiene sulfato de calcio, la principal materia prima utilizada en la elaboración del gypsum.
Una planta de ácido sulfúrico recibe de la refinería compuestos líquidos que contienen azufre.
Este parque eco-industrial es tan sólo uno de varios que operan en el
mundo, principalmente en Estados Unidos y Europa. Dentro de éstos se
encuentran los complejos de Cape Charles, el Green Institute y Londonderry.
Las compañías que conforman un parque eco-industrial tienen la ventaja de poder compartir costos de infraestructura y servicios; por ejemplo:
manejo de residuos, capacitaciones y reclutamientos, instalaciones de esparcimiento, medios de transporte y otras actividades que son comunes a
las distintas organizaciones.
Es evidente que realizar este tipo de prácticas es muy favorable para
las empresas, pues conjuntamente dan una imagen ecológicamente acep-
6.11 Sistemas empresariales de manejo ambiental
157
table, ayudan al medio y se benefician por el ahorro en costos que esto
genera per se.
Con el paso del tiempo ha ido aumentando la cantidad de corporaciones que consideran a la ecología industrial como una base para operar su
negocio. Ésta es, sin duda, la tendencia que deberá seguir el desarrollo industrial si se desea que las actividades humanas se desenvuelvan en un ambiente sostenible.
6.11 Sistemas empresariales de manejo ambiental
Los sistemas empresariales de manejo ambiental (SEMA’s) no pretenden
administrar al ambiente, sino administrar corporaciones, instituciones e
individuos que afectan al medio. Estos sistemas ayudan a las organizaciones a tratar temas ambientales de manera sistemática, eficiente y efectiva.
Alrededor de 40 000 organizaciones alrededor del mundo han incorporado
algún SEMA que se ha registrado bajo estándares internacionales.
Tales estándares se encuentran contenidos en ISO 14001, que es un
estándar internacional que define a los SEMA como: “la parte del sistema
administrativo que incluye estructura organizacional, planeación, actividades, responsabilidades, procedimientos, procesos y recursos para desarrollar, implementar, lograr, revisar y mantener la política ambiental”.
La Asociación Canadiense de Estándares (ACE) establece que: “el diseño de un sistema empresarial de manejo ambiental es un proceso de planeación continuo e interactivo que consiste en definir, documentar y mejorar
continuamente los requerimientos de capacidad, como son: recursos, entrenamiento, sistemas de información precoces y procedimientos operativos, documentación y criterios de medición y monitoreo”.
Un sistema empresarial de manejo ambiental es una parte integral de la
administración general de una organización, este sistema se diseña para
mejorar el rendimiento ambiental mediante:
•
•
•
•
•
•
•
Establecimiento de metas y objetivos (política).
Identificación, obtención y organización de gente, habilidades y
conocimientos, tecnología, finanzas, y otros recursos necesarios
para lograr las metas y los objetivos.
Identificación y evaluación de opciones para alcanzar las metas.
Evaluación de riesgos y prioridades.
Implementación de las opciones seleccionadas.
Auditorías del rendimiento para efectuar los ajustes necesarios
mediante la retroalimentación al sistema.
Aplicación de las herramientas del sistema requeridas.
Las secciones anteriores tan sólo representan un breve resumen sobre
el contexto mundial en torno a asuntos ambientales y energéticos, las principales herramientas ambientales, la respuesta de la industria en las últi-
158
Capítulo 6
Energía, medio ambiente y desarrollo sustentable
mas décadas y una serie de metodologías y herramientas específicas que
permiten al ingeniero prepararse para uno de sus principales retos: convertir al medio ambiente en un socio inseparable del éxito empresarial y el
desarrollo sustentable.
EJERCICIOS PROPUESTOS
7
3
1. Balances de materia y energía. A un lago, cuyo volumen es de 1 × 10 m , le llega una co3
rriente de agua limpia (sin contaminantes) a razón de 65 m /s. Pero también recibe los de3
sechos que arroja una fábrica a razón de 6 m /s, estos desechos llegan al lago a través de una
corriente que tiene un contaminante no conservativo cuya concentración es de 80 mg/L.
Asuma una constante K de 0.15/día.
a) Elabore un diagrama que represente la situación.
b) Calcule la concentración del contaminante cuando se fija el régimen permanente. Asuma que el contaminante está perfectamente mezclado en el lago.
2. Gestión de riesgos. Suponga que una persona que pesa 85 kg consume 2.5 L de agua durante
70 años y que ésta tiene una concentración de cloroformo de 0.10 mg/L.
a) ¿Cuál será el riesgo incremental de que esta persona adquiera cáncer?
b) Si en una ciudad 550 000 personas tomaran 2.5 L de agua al día y todas ellas tuvieran
una esperanza de vida de 70 años, ¿cuántos casos extra de cáncer se esperarían al año?
La tasa de mortalidad a causa de cáncer (todas las formas) en Estados Unidos es de 193 por
cada 100 000 personas al año. Compare este resultado con los números de cáncer extras al
año causados por el cloroformo en el agua potable.
3. Balances de materia y de energía a régimen no permanente. Imagine que las autoridades
deciden evitar que la tubería del drenaje descargue en el lago del ejercicio 2, ya que consideran que la concentración de contaminante que existe en dicho lago es muy grande. La co3
rriente que entra seguirá teniendo un flujo de 4 m /s y una concentración de 12 mg/L.
a) Considerando que la mezcla es perfecta, calcule la concentración del contaminante en
el lago siete días después de haber quitado el drenaje.
b) ¿Cuál será la nueva concentración en condiciones de régimen permanente? Recuerde
que el volumen del lago es de 107 m3 y que la K = 0.25/día.
4. Ingrese a la página web del Centro de Análisis de Ciclo de Vida (www.centrolca.org) e investigue algunos casos de éxito en Latinoamérica en donde el LCA ha servido como herramienta para la toma de decisiones. Si está interesado en este tema puede registrarse en esta
página para recibir información periódica sobre proyectos, publicaciones y conferencias.
5. Ingrese a la página web de uno de los softwares más populares para análisis de ciclo de vida
(www.gabi-software.com). Ingrese a la sección de downloads y descargue una versión gratuita del software. Investigue las características y el potencial de este producto.
Referencias
159
Referencias
AIE, Agencia Internacional de Energía. (2009).
Renewable Information 2009. París, Francia.
Azapagic, A., Emsley, A. y Hamerton, I. (2003).
Polymers and Sustainable Development. John
Wiley and Sons, Inglaterra.
Azapagic, A., Perdan, S. y Clift, R. (2004). Sustainable Development in Practice. John Wiley and
Sons, Inglaterra.
Dorf, R. C. (2001). Technology, Humans and Society.
Academic Press, Estados Unidos de América.
INE, Instituto Nacional de Ecología. (1997). Gestión
ambientalmente racional de las sustancias
químicas desde la perspectiva de la industria.
México.
LaGrega, M. D., Buckingham, P. L. y Evans, J. C.
(1994). Hazardous Waste Management. McGraw-Hill, Estados Unidos.
Masters, G. (1997). Introduction to Environmental
Engineering and Science. Prentice Hall, Estados
Unidos.
Nattrass, B. y Altomare, M. (1999). The Natural Step
for Business. New Society Publishers, Canadá.
REN21. (2009). Renewables Global Status Report:
2009 Update (Paris: REN21 Secretariat). París,
Francia.
Romero, O. (2002). “Tecnología, negocios y medio
ambiente”, Dirección Estratégica. México,
sept.-nov., 2002, pp 31-35.
Romero-Hernández, O. (2004). “To treat or not to
treat? Applying chemical engineering tools and
a life cycle approach to assessing the level of
sustainability of a clean-up technology”, Green
Chemistry, vol. 6, pp. 395-400.
Romero-Hernández, O. (2005). “Applying Life Cycle
Tools and Process Engineering to Determine the
Most Adequate Treatment Process Conditions.
A Tool in Environmental Policy”, Int J LCA.
DOI: http://dx.doi.org/10.1065/
lca2004.09.180.11. Ecomed Publishers.
Romero-Hernández, O., Livingston, A. y Pistokopoulos, E. (1999). “Waste Treatment and
Optimal Degree of Pollution Abatement”,
Environmental Progress. American Institute of
Chemical Engineers, vol. 17, núm. 4, pp.
270-277.
Romero-Hernández, S. y Romero-Hernández, O.
(2003). “A framework of Computer Aided
Engineering and LCA applied for Life Cycle
Management”, InLCA/LCM, 2003, septiembre
22-25, Seattle, Washington.
Romero-Hernández, S., Romero-Hernández, O. y
Wood, D. (2011). Energías renovables: Impulso
político y tecnológico para un México sustentable. USAID-ITAM, Washington DC.
UNEP, United Nations Environmental Programme.
(2001). “Global Environmental Outlook 2000”,
Perspectivas del Medio Ambiente Mundial.
UNEP-GEO 2000, Nairobi, Kenya.
Thompson, D. (2003). Tools for Environmental
Management. A Practical Introduction and
Guide. New Society Publishers, Canadá.
CAPÍTULO
7
Materiales en ingeniería y
procesos de manufactura
AUTOR:
Dr. Sergio Romero Hernández
Con la colaboración del Dr. Víctor Cruz Morales y del
Dr. Adán Ramírez López
7.1 Introducción e importancia de los materiales
en ingeniería
7.2 Estructura de los materiales
7.3 Principales aleaciones ferrosas y no ferrosas
7.4 Polímeros y cerámicos
7.5 Propiedades mecánicas de los materiales
7.6 Clasificación general de los procesos de
conformado
7.7 Procesos de fundición y vaciado
7.8 Conformado de metales
7.9 Conformado y aplicaciones de polímeros
7.10 Manufactura integrada por computadora
7.11 Construcción rápida de prototipos
7.1 Introducción e importancia de
los materiales en ingeniería
Todos los productos fabricados por la industria y que forman parte de la
vida diaria del ser humano están fabricados por lo menos de un material, y
frecuentemente de varias clases de ellos. Automóviles, aviones, herramientas, juegos y un sinf ín de artículos cotidianos se fabrican eligiendo el material que mejor se adapta a su uso final. No obstante la gran diversidad de
materiales existentes, es posible clasificarlos en cinco grandes grupos:
Metales: pueden encontrarse como puros y aleados. Tienen una buena
conductividad eléctrica, alta resistencia y ductilidad. Los más comunes en
ingeniería son los aceros, cobre, aluminio y níquel.
Cerámicos: ladrillo, vidrio, porcelana y abrasivos. Tienen baja conductividad, son aislantes naturales, son duros y, por lo tanto, de comportamiento frágil. Su uso está en expansión gracias a nuevas técnicas de procesamiento y a la búsqueda de nuevas aplicaciones.
Polímeros: también conocidos como plásticos, son grandes estructuras
moleculares de cadenas repetidas de una molécula básica. En general, presentan propiedades, como baja conductividad eléctrica y térmica, y baja
resistencia mecánica; sin embargo, necesitan muy poca energía para ser
manufacturados, por lo que su costo es reducido y su uso extenso.
162
Capítulo 7
Materiales en ingeniería y procesos de manufactura
Proceso de formado
Estructura atómica
Propiedades del
material
FIGURA 7.1 Relación entre estructura atómica, materiales y proceso de formado
Semiconductores: silicio, germanio, galio. Se usan en aplicaciones electrónicas y de sensores. Su conductividad eléctrica puede regularse. Son utilizados en transistores, diodos, circuitos integrados y paneles fotovoltaicos.
Compuestos: son el resultado de la combinación de dos o más materiales
con el objeto de obtener una combinación de las propiedades de ambos; por
ejemplo, la combinación de un material dúctil y flexible (acero) y un material rígido y resistente (cemento) para obtener un material que soporte pesadas estructuras (concreto). La fibra de vidrio es otro ejemplo en el que se
combina la facilidad de manufactura de las resinas plásticas con la alta resistencia de las fibras.
Existe una relación tripartita entre estructura atómica, proceso de formado y propiedades del material, como se ilustra en la figura 7.1.
Un cambio en cualquiera de estos tres rubros modificará los otros dos;
por ejemplo, si se hace pasar una plancha de metal a través de un par de
rodillos (éste es el proceso de laminación), la estructura interna del material se verá modificada, ya que los granos que componen el material sufrirán una compresión, la cual, a su vez, generará un aumento en la resistencia
de la pieza, como se muestra en la figura 7.2.
Asimismo, si se agrega un elemento que produzca una aleación, la estructura atómica y los procesos de formado se verán modificados para el
nuevo material.
Las propiedades de los materiales se clasifican en dos grandes grupos,
dependiendo de su naturaleza. Las propiedades f ísicas son aquellas in-
FIGURA 7.2 Cambios en la estructura interna
7.2 Estructura de los materiales
163
trínsecas a la naturaleza del material y que se mantienen constantes, entre
ellas se pueden mencionar el comportamiento eléctrico, magnético, óptico,
térmico, elástico y la densidad, entre otras.
Las propiedades mecánicas describen la respuesta de un material
a una fuerza mecánica; por ejemplo, la rigidez, ductilidad, resistencia al
impacto, resistencia a la fatiga, termofluencia, desgaste. Por lo tanto, las
propiedades mecánicas definen cuánto resiste un material y cómo se debe
procesar.
El tipo de procesamiento de un material se elige, entonces, con base en
sus propiedades y en su estructura interna; por ejemplo, es fácil imaginar
que un material como el barro o la arcilla necesita ser combinado con agua
para darle forma y, una vez lograda ésta, la pieza se hornea para darle dureza y resistencia. En cambio, para hacer motores se funden grandes cantidades de metal que son vaciados en estado líquido dentro de moldes de arena.
Al seleccionar un material para una aplicación específica, es necesario
tomar en consideración los efectos que el ambiente puede ocasionar. Al
trabajar a altas temperaturas, la mayoría de los materiales ven su resistencia
disminuida, por lo cual pueden sufrir fracturas internas que conlleven al
fallo de la pieza. Asimismo, la atmósfera en la que trabaje el material puede
afectarlo, siendo el ejemplo más claro la corrosión de los metales al contacto con agua o ambientes agresivos.
7.2 Estructura de los materiales
La estructura de los materiales puede ser considerada en tres diferentes
niveles, dependiendo de la magnificación empleada.
Nivel atómico: en este nivel se describe el comportamiento y la forma en
que se unen los átomos.
Nivel cristalino: algunos materiales, como semiconductores, cerámicos,
polímeros o metales, presentan un arreglo ordenado en sus átomos, con lo
que definen cristales, como se muestra en la figura 7.3.
FIGURA 7.3 Estructura cristalina
164
Capítulo 7
Materiales en ingeniería y procesos de manufactura
Nivel granular: cada cristal es un grano, y la mayoría de los materiales
que forman cristales suelen tener varios de éstos, lo anterior se conoce como materiales policristalinos. Los granos influyen en el comportamiento
de los materiales.
El comportamiento de los materiales lo define su estructura atómica.
La estructura de los átomos define la forma en que se enlazan entre sí. Un
átomo puede ser esquematizado como un núcleo compuesto de neutrones
y protones, el cual se encuentra rodeado por una serie de órbitas en las que
se mueven los electrones. Esta representación se conoce como modelo atómico de Bohr, el cual se encuentra esquematizado en la figura 7.4.
La estructura atómica se encuentra determinada por varios factores,
entre ellos los tipos de átomos presentes, los tipos de enlaces entre dichos
átomos y la forma en que los átomos se encuentran arreglados. La distribución espacial de los electrones en órbitas alrededor del núcleo de los átomos determina la forma en que se van a unir. La energía de los electrones
en el átomo y la facilidad de agregarle o quitarle uno o más electrones al
átomo para crear un ion cargado son también factores que definen el enlace. En general, es posible decir que para que existan enlaces es necesario
que exista afinidad química entre los átomos. Cuando no ocurre esta afinidad, los materiales se encuentran separados sin mezclarse, como ocurre
con el aceite y el agua.
La unión de átomos es conocida como enlace. En algunos casos los
átomos comparten o ceden electrones a otros átomos para realizar así el
enlace, mientras que en otros las moléculas son polarizadas y atraídas entre
sí. Los enlaces entre átomos se clasifican en primarios y secundarios, dependiendo de si comprenden transferencia de electrones o no. Los enlaces
primarios son fuertes e involucran una gran energía para formarlos o romperlos.
Electrones
Núcleo
FIGURA 7.4 Representación
del átomo de Bohr
165
7.2 Estructura de los materiales
–
+
–
+
FIGURA 7.5 Tipos de enlace
–
–
–
–
–
+
–
+
–
–
–
+
–
+
–
–
–
–
–
+
+
Hay tres tipos de enlaces primarios: metálico, covalente e iónico. En el
primero, los electrones de valencia de cada átomo se mueven alrededor de
los núcleos positivos formando un mar de electrones que mantiene los átomos unidos por atracción electrostática. En el enlace covalente, los átomos
involucrados tienen su último orbital casi lleno, por lo que se unen al compartir electrones, para quedar en equilibrio electroquímico; este tipo de
enlace se puede dar entre el mismo tipo de elementos. El enlace iónico se
basa en una atracción electrostática fuerte y sólo puede existir entre diferentes elementos, ya que uno de los elementos cede un electrón para llenar
el último orbital del otro elemento. Esta transferencia de electrones da lugar a la generación de un par de iones, uno con carga positiva y otro con
carga negativa, los cuales se atraen entre sí. La figura 7.5 muestra un esquema de los tres tipos de enlaces primarios.
El principal tipo de enlace secundario es el conocido como Van der
Walls. Varias moléculas y átomos son naturalmente polarizados; esto implica que, aunque la molécula es eléctricamente neutra, un lado de ella está
con carga predominante positiva, mientras el otro lado es primordialmente
negativo. Esta polarización genera una atracción electrostática débil entre
las moléculas involucradas. El ejemplo más cotidiano lo constituye el agua:
la molécula básica consiste en la unión por medio de enlaces covalentes de
un átomo de oxígeno con dos átomos de hidrógeno; sin embargo, ya que la
molécula de agua está naturalmente polarizada, varias moléculas se unen
entre sí por un enlace Van der Walls, como se muestra en la figura 7.6. Este
H
–
O
H
FIGURA 7.6 Enlace Van der Walls
+
H
+
–
+
O
H
+
166
Capítulo 7
Materiales en ingeniería y procesos de manufactura
FIGURA 7.7 Estructura granular
enlace secundario es el que define propiedades como la temperatura de
fusión o la dureza del agua en estado sólido.
A nivel cristalino, en varios materiales los átomos se acomodan formando estructuras ordenadas siguiendo un patrón, generando una fase, es
decir, una región química y estructuralmente homogénea dentro del material. Las estructuras más comunes en los metales presentan una geometría
cúbica con un átomo en cada vértice del cubo; en algunos casos tienen un
átomo en el centro del cubo, lo que da lugar a una estructura cúbica de
cuerpo centrado. En otros materiales, en cada cara del cubo se encuentra
un átomo, lo que da lugar a una estructura cúbica de cara centrada.
A nivel macro, un material suele formarse por un conjunto de cristales
conocidos como granos. Es importante recalcar que cada grano es un cristal en sí mismo; por lo tanto, la agrupación de granos es un conjunto de
cristales similares, pero cuentan con direcciones diferentes y son limitados
por regiones amorfas conocidas como límites de grano, esto puede apreciarse en la figura 7.7.
7.3 Principales aleaciones ferrosas y no ferrosas
Aunque algunos metales son importantes como elementos puros (por
ejemplo, el oro, la plata y el cobre), la mayoría de sus aplicaciones en ingeniería requieren la combinación de ellos a través de una aleación, porque se
pueden mejorar propiedades, como la resistencia, la dureza y algunas otras
que llegan a ser superiores al compararlas con las de los metales puros.
Una aleación es un material metálico compuesto de dos o más elementos, de los cuales por lo menos uno es metálico. Los materiales metálicos
7.4 Polímeros y cerámicos
167
suelen dividirse en dos principales categorías: 1. aleaciones ferrosas y
2. aleaciones no ferrosas.
Los metales y las aleaciones ferrosas contienen hierro como metal base.
Son las aleaciones de mayor importancia en ingeniería. Los mecanismos de
endurecimiento se aplican a este tipo de aleaciones. Las categorías generales son aceros al carbono y de aleación, los aceros inoxidables, los aceros
para herramienta y dados, los hierros fundidos y los aceros fundidos. Los
aceros se producen comúnmente de dos formas: refinando el mineral de
hierro o reciclando chatarra de acero. Para la producción de acero primario, el mineral de hierro (óxido de hierro) se calienta en un alto horno en
presencia de coque (carbono) y oxígeno. Para el reciclado de chatarra de
acero, ésta se introduce en un horno eléctrico de arco, donde es fundida.
Los materiales no ferrosos incluyen elementos metálicos y aleaciones
que no se basan en el hierro. Los metales de ingeniería más importantes en
el grupo de los no ferrosos son: aluminio, cobre, magnesio, níquel, titanio,
zinc y sus aleaciones. Aunque el grupo de metales no ferrosos no puede
igualar la resistencia de los aceros, algunas aleaciones no ferrosas tienen
características, como resistencia a la corrosión y relaciones resistenciapeso, que los hacen competitivos con los aceros en aplicaciones para esfuerzos moderados y altos. Estos metales tienen otras aplicaciones importantes gracias a ciertas propiedades, como la elevada conductividad
térmica y eléctrica, maleabilidad, ductilidad, baja densidad y facilidad de
fabricación.
Otro factor importante en el diseño con metales no ferrosos es su costo, que también varía de manera considerable. En general, son de mayor
costo que los metales ferrosos; sin embargo, el precio del metal es solamente una pequeña parte del costo de un componente. Su fabricación y terminado, sin mencionar la comercialización y la distribución, contribuyen mucho más al costo total de una pieza. Además, muchos de ellos tienen otras
propiedades distintas a las mecánicas, que los hacen ideales para aplicaciones en las que el acero podría ser inadecuado.
7.4 Polímeros y cerámicos
Un polímero (del griego poli, que significa muchos, y meros, que significa
partes) es una sustancia de masa molecular elevada que consta de muchas
unidades idénticas o moléculas unidas una a otra en una cadena, cuya base
son los enlaces de carbono, hidrógeno, oxígeno y nitrógeno.
Ciertos productos naturales, como las resinas y el caucho, provienen
de la polimerización o encadenamiento de moléculas sencillas. Sin embargo, el estudio de los polímeros se dirige a la fabricación de sustancias artificiales de esta clase, que por su resistencia a la corrosión, baja conductividad
eléctrica, flexibilidad y baja densidad tienen una amplia variedad de aplicaciones industriales.
168
Capítulo 7
Materiales en ingeniería y procesos de manufactura
La formación de polímeros se debe fundamentalmente a dos tipos de
procesos químicos de encadenamiento de moléculas: la adición y la condensación. En la polimerización por condensación se producen los polímeros debido a la formación de uniones entre dos tipos de monómeros en
reacción. Por otra parte, la polimerización por adición consiste en la unión
de moléculas simples, de manera que el polímero conserva la misma proporción en átomos.
Grado de polimerización, GP
Peso molecular del polímero
GP =
Peso molecular del monómero
La eficacia de este proceso se evalúa por medio del grado de polimerización; cuanto más elevado sea éste, mayor será la viscosidad del polímero, es
decir, su resistencia al fluir. En algunos polímeros es posible impartir algo
de cristalinidad. La región cristalina (cristalita) tiene una organización ordenada de las moléculas; cuanto mayor sea su cristalinidad, más duro y rígido será el polímero. La temperatura de transición vítrea separa la región
del comportamiento frágil y del comportamiento dúctil. Existen tres clases
principales de polímeros: termoplásticos, termofijos y elastómeros. Los
termoplásticos se agrandan y se forman fácilmente a temperaturas elevadas. Los termofijos son mucho más rígidos y duros, mientras que los elastómeros tienen la capacidad de sufrir deformaciones elásticas y regresar a
su forma original.
Otra clasificación de los polímeros se debe a los procesos de producción y a la materia que se usa para elaborarlos.
Clasificación de los polímeros por su origen
Naturales
A partir de celulosa:
a) Celulosa q acetato de celulosa
(películas fotográficas, fibras textiles, etc.)
b) Celulosa q nitrato de celulosa
(plásticos, explosivos, rayón, barnices)
Sintéticos
A partir de productos derivados del petróleo y carbón
(ejemplo etileno):
Coque + metano q acetileno
Acetileno + hidrógeno o etileno
Polipropileno, cloruro de polivinilo, polimetilmetacrilato,
policarbonato
Polímeros
7.5 Propiedades mecánicas de los materiales
169
Los cerámicos (del griego keramos, que significa arcilla de alfarero) son
compuestos de elementos metálicos y no metálicos. Gracias a sus propiedades como aislante eléctrico y resistencia a altas temperaturas, los cerámicos se utilizan en la industria automotriz.
Su estructura se basa en enlaces covalentes (comparten electrones) o
iónicos (enlaces primarios entre iones de carga opuesta). En consecuencia,
las propiedades como la dureza o resistencia eléctrica son mejores en los
cerámicos que en los metales; por otra parte, son frágiles y tienen tenacidad
baja.
Los cerámicos se pueden dividir en dos clases: tradicionales o industriales, también conocidos como cerámicos de ingeniería. Estos últimos
son particularmente atractivos para aplicaciones como componentes de
motores térmicos, herramientas de corte y componentes que requieran resistencia al desgaste. Cerámicos importantes en el diseño y la manufactura
son los cerámicos a base de óxidos (alúmina y zirconio).
7.5 Propiedades mecánicas de los materiales
Las propiedades mecánicas del material determinan su comportamiento
cuando se encuentra sujeto a esfuerzos mecánicos, por lo que son de vital
importancia para el diseño y manufactura de las piezas.
Entre las propiedades mecánicas se incluyen: el módulo de elasticidad
(E), ductilidad (elongación total y reducción del área), dureza y varios valores de resistencia (resistencia a la cedencia, σy, resistencia máxima a la tensión UTS). Estas propiedades, a su vez, dependen del material en particular
y de su estado.
Existen tres tipos de esfuerzos estáticos a los que un material puede ser
sometido: tensión, compresión y esfuerzo cortante. Para determinar las
propiedades mecánicas se utilizan comúnmente ensayos de tensión, los
cuales miden la resistencia de un material a una fuerza estática; a partir de
éstos se desarrollan curvas de esfuerzo real–deformación, que son importantes en la determinación del coeficiente de resistencia (k), el exponente
de endurecimiento por deformación (n) y la tenacidad de los materiales. El
esfuerzo real es la relación de la carga P con el área transversal real (instantánea) A de la muestra.
Los ensayos de compresión, debido a la presencia de fricción, son muy
inexactos; sin embargo, son útiles para forja, laminado y extrusión. Los ensayos de torsión se llevan a cabo en especímenes tubulares y evalúan el esfuerzo cortante. Se utilizan diversos ensayos de dureza para determinar la
resistencia de un material contra ralladuras permanentes. La dureza está
relacionada con la resistencia mecánica al desgaste, pero no es por sí misma una propiedad fundamental del material. Brinell, Rockwell, Vickers y
Knoop son ensayos comunes de dureza.
Las pruebas de impacto miden la capacidad de un material para absorber energía hasta su ruptura; la prueba de impacto, denominada ensayo de
170
Capítulo 7
Materiales en ingeniería y procesos de manufactura
Charpy, es la más común. También son útiles para determinar la temperatura de transición dúctil a frágil de los materiales. Los ensayos de fatiga
indican límites de resistencia a la fatiga o límites de fatiga de los materiales,
es decir, el esfuerzo máximo al cual se puede sujetar un material sin que
muestre falla por fatiga.
La falla es uno de los aspectos de mayor importancia en lo relativo al
comportamiento de los materiales, ya que influye de manera directa en la
selección de los mismos para determinadas aplicaciones. Existen dos tipos
generales de fallas: pandeado y fractura, la cual incluye la separación del
material. Aunque la falla de los materiales por lo general se considera como
no deseable, algunos productos se diseñan de manera que la falla sea esencial en su función, como ocurre por ejemplo en las estructuras de automóviles, las cuales ante un impacto se deforman y fallan, absorbiendo energía
y manteniendo seguro el habitáculo del conductor.
7.6 Clasificación general de los procesos
de conformado
Como base para la clasificación general de los procesos de conformado, destaca la importancia de la selección correcta de la maquinaria de manufactura, la forma en que el proceso de selección se relaciona con las características de los materiales, el acabado superficial y el costo de la manufactura.
La mayoría de procesos se han automatizado, y cada vez existe un mayor control computarizado para optimizar todos los aspectos de las operaciones. La elección de un proceso de manufactura se determina por diversas
consideraciones, como son: características y propiedades del material, forma, tamaño y espesor de la parte; requerimientos en la tolerancia dimensional y de acabado superficial; volumen de producción; costos incurridos
en aspectos individuales y combinados en la operación de manufactura.
Por una parte, algunos materiales se pueden procesar a temperatura
ambiente, mientras que otros requieren temperaturas elevadas. Algunos
materiales no son fáciles de trabajar, por lo que requieren técnicas especiales de procesamiento.
Los distintos materiales tienen diversas características de manufactura, por eso es posible una clasificación de sus procesos. La clasificación se
debe a las características finales deseadas. Algunas de estas operaciones de
manufactura producen productos largos y continuos, como placas, hojas,
tubería y barras con diversas secciones transversales.
Los procesos de laminado, extrusión y estirado son capaces de elaborar
dichos productos a partir de materiales metálicos y no metálicos, incluyendo los plásticos reforzados; posteriormente se cortan a las longitudes deseadas.
Por otra parte, los procesos como la forja, la metalurgia de los polvos y
la mayoría de los procesos de modelado y conformado para materiales pro-
7.7 Procesos de fundición y vaciado
171
ducen productos discretos, como discos para turbina, engranes y pernos.
Las piezas forjadas se pueden fabricar con formas complejas en general,
con operaciones posteriores de maquinado y acabado, y tienen una tenacidad que suele ser mejor que la de las piezas fundidas.
Las características de la maquinaria y el equipo utilizado en estos procesos también afectan de manera significativa la calidad del producto, su
tasa de producción y la economía de la operación de manufactura.
7.7 Procesos de fundición y vaciado
La fundición es uno de los procesos más antiguos, económicos y eficaces de
formación de objetos mediante el vaciado de material líquido en un molde,
en el cual permanece hasta que solidifica. Hay dos tipos de fundición; en el
primero, el molde produce una forma simple, llamada lingote, el cual requiere una deformación plástica o maquinado antes de crear con él un producto terminado; en el segundo, se producen piezas casi terminadas.
Procesos de fundición en moldes
Desechables: de arena, yeso, cerámica, etc. Se destruyen después de la fundición; por ejemplo: fundición en arena, cera perdida, fundición con poliestireno expandido, fundición en concha o cáscara. Generalmente se utilizan para la elaboración de piezas complejas.
Permanentes: de metal o de refractarios cerámicos que soportan altas
temperaturas. Son económicos cuando la producción es alta; por ejemplo:
fundición en dados, cámara caliente, fundición centrífuga.
Ventajas
Desventajas
Creación de partes complejas.
Baja precisión dimensional.
De formas pequeñas a grandes.
Imperfección de superficies.
Cualquier metal (ferroso o no ferroso) que al
calentarse pase al estado líquido puede fundirse.
Deficiencia en propiedades mecánicas, como
porosidad.
Producción de partes de forma neta en algunos
procesos.
Trabajadores: exposición a altas temperaturas.
Factores críticos en operaciones de fundición
•
•
•
•
Solidificación del metal y su contracción.
Flujo del metal fundido hacia dentro de la cavidad del molde (vaciado, flujo de fluidos).
Transferencia de calor durante la solidificación y el enfriamiento
del metal en el molde.
Tipo de material del molde.
172
Capítulo 7
Materiales en ingeniería y procesos de manufactura
Práctica de la fundición
Existen varios tipos de hornos para la fundición. La selección del más adecuado depende de diversos factores, como económicos (inversión, operación, mantenimiento), composición y punto de fusión del material o aleación a fundir, control de la atmósfera dentro del horno para evitar la
contaminación del metal, capacidad del horno, impacto ambiental (aire y
ruido), suministro de energía y disponibilidad, facilidad para sobrecalentar
el metal, etcétera.
7.8 Conformado de metales
Este proceso de trabajo primario consiste en aplicar presión sobre el metal
hasta obtener la forma deseada o para mejorar las propiedades f ísicas; puede realizarse en frío o en caliente. En el trabajo en frío, una aleación se de-
Trabajo en caliente
Ventajas
Desventajas
Deformación importante del material.
Probable fusión de alguna región de la parte.
Deformación del material con menor esfuerzo.
Incrustaciones (óxidos) en la pieza.
Los metales que fracturan en frío pueden
manejarse en caliente.
Disminuye precisión dimensional.
No se produce fortalecimiento de la parte con
el calor.
Se requiere alta energía.
Acabado superficial deficiente.
Corta vida útil de las herramientas de trabajo.
Trabajo en frío
Ventajas
Desventajas
Mayor precisión dimensional.
Mayor potencia requerida para lograr la deformación.
Mejores acabados de superficie.
El formado que puede hacerse sobre una parte está
limitado por la ductilidad y el endurecimiento por
deformación.
El endurecimiento por deformación aumenta la resistencia y dureza de la pieza.
Mayor velocidad de producción.
Bajo costo.
7.9 Conformado y aplicaciones de polímeros
173
forma y endurece simultáneamente. En el trabajo en caliente, una aleación
se deforma a altas temperaturas sin endurecerse. En el recocido, los efectos
del endurecimiento causados por el trabajo en frío se eliminan o modifican
mediante un tratamiento térmico. En consecuencia, estos procesos son
restringidos a materiales con la ductilidad suficiente para permitir su deformación.
Laminado. El laminado es un proceso común para polímeros y metales.
Se usa para reducir el espesor constante de la pieza mediante la compresión
del material entre dos o más rodillos. Los rodillos tiran el material hacia
dentro del espacio de laminación, a través de una fuerza de fricción neta
sobre el mismo. Se puede obtener una gran variedad de productos a través
de este proceso, como placas, láminas, solera o diversos perfiles, dependiendo si la aplicación es en frío o en caliente.
Forja. Consiste en golpear la pieza hasta obtener la forma deseada, de
manera que se conforma mediante fuerzas sucesivas de compresión aplicadas a través de diversos dados o matrices y herramientas. Es una de las
operaciones más antiguas de trabajo de metales, se usó primero para fabricar joyería, monedas y diversos utensilios martillando el metal con herramientas de piedra. A diferencia de las operaciones de laminado, las operaciones de forjado producen piezas discretas.
Extrusión. En el proceso básico de extrusión, llamado extrusión directa
o en avance, se coloca una palanquilla redonda en una cámara (recipiente)
y es impulsada a través de la abertura de una matriz (o dado) mediante un
pistón hidráulico o ariete de prensa. La abertura del dado puede ser redonda o tener otras formas. Hay otras clases de extrusión, como la indirecta, la
hidrostática y por impacto.
Doblado. Se define como la deformación del metal alrededor de un eje
recto. Es una de las operaciones más comunes de formado, en la que se
produce poco o ningún cambio en el espesor de la lámina metálica. Durante la operación de doblado las fibras externas del material están en tensión,
mientras que las interiores están en compresión. Este proceso no sólo se
utiliza para formar piezas, sino también para impartirles lo que aumenta su
momento de inercia.
Cizalladura. Operación de corte de una lámina de metal a lo largo de
una línea recta entre dos bordes. Antes de fabricar una pieza de lámina
metálica se elabora como modelo una pieza bruta de dimensiones adecuadas a partir de una lámina grande (por lo general en rollo). Este proceso se
usa comúnmente para reducir grandes láminas a secciones de menor tamaño para operaciones posteriores de prensado.
7.9 Conformado y aplicaciones de polímeros
Los polímeros están remplazando paulatinamente a los metales debido a
sus características únicas y diversas. Estos materiales tienen baja densidad,
174
Capítulo 7
Materiales en ingeniería y procesos de manufactura
baja conductividad eléctrica y térmica, resistencia a compuestos químicos y
un alto coeficiente de expansión térmica. Muchos de estos compuestos
pueden alargarse con gran facilidad y su temperatura de fusión es muy baja.
Todas estas propiedades permiten que los polímeros se puedan fundir,
maquinar, pegar a otras estructuras, etc., con relativa facilidad. Además, las
operaciones de acabado de superficie son mínimas o nulas comparándolas
con las de los metales. Una de las ventajas de los polímeros es que, como se
funden a temperaturas menores que los metales, son más manejables y
se requiere menos energía para procesarlos. Todo esto suele traducirse en
menores costos de procesamiento.
Sin embargo, los polímeros también tienen algunas deficiencias, como
baja resistencia al impacto y a los cambios en la temperatura, baja rigidez,
etc., además, el tiempo de biodegradación es muy alto al final de su vida útil.
Sorprendentemente, a pesar de tener deficiencias, estos materiales
pueden someterse a una gran cantidad de procesos para la mejora de sus
propiedades. Algunos de éstos se presentan a continuación:
Aditivos. Modifican y mejoran características de los polímeros, como
su flamabilidad, color, resistencia, rigidez, resistencia de arco en aplicaciones eléctricas, etcétera.
Rellenadores. Dependiendo del tipo de sustancia, aumentan la resistencia mecánica, dureza, resistencia a la abrasión, estabilidad dimensional,
etc., del polímero; reducen el costo del material. Algunos ejemplos de rellenadores comúnmente usados son: polvo de sílice, aserrín, fibras celulósicas
(vidrio, celulosa, asbesto).
Plastificantes. Al reducir la fuerza de los enlaces secundarios en cadenas poliméricas largas, proveen flexibilidad y suavidad a los polímeros, disminuyendo su Tg. Son generalmente solventes no volátiles de bajo peso
molecular; por ejemplo, el PVC (se le agregan plastificantes).
Colorantes. Pueden ser tintes orgánicos o pigmentos inorgánicos. Los
segundos son partículas dispersas que, generalmente, tienen mayor resistencia a la temperatura y a la luz que los tintes.
Retardadores de flama. Reducen la flamabilidad de los polímeros. Son
compuestos de Cl, Br o P.
Lubricantes. Se añaden al polímero para reducir la fricción en procesos
subsiguientes, para evitar que las partes se peguen a los moldes y que películas delgadas de plástico se peguen unas con otras.
Procesos de manufactura de polímeros
Existen grandes cantidades de procesos de manufactura de polímeros debido a su relativa facilidad de manejo. Generalmente los plásticos se envían a
las plantas manufactureras en forma de pellets o polvos, y se funden justo
antes del proceso de formado. También se pueden encontrar plásticos en
forma de láminas, placas, barras y tubería.
7.9 Conformado y aplicaciones de polímeros
175
A continuación se presentan diversos tipos de operaciones de manufactura de plásticos.
Extrusión. El material se comprime y fluye a través del orificio de un
dado para generar un producto largo y continuo. Este proceso se usa con
termoplásticos y elastómeros (casi nunca con termofijos). Los diversos productos obtenidos por este proceso son mangueras, tubos, perfiles (molduras de ventanas y puertas), láminas, películas y recubrimientos de alambres
y cables eléctricos.
El principio de extrusión simple es el proceso más común y sencillo en
esta rama. El material se deposita (pellets o polvo) a un cilindro en donde se
calentará y será transportado por medio de un gusano (tornillo giratorio
adentro de un cilindro) hasta llegar a un dado que le da la forma. El diámetro interno del cilindro es de 2.5 a 15 cm. El material se calienta mediante
resistencias eléctricas a través del cilindro para facilitar el trabajo del proceso.
Los dados tienen diferentes formas, dependiendo del instrumento a
fabricar; existen las siguientes categorías: a) perfiles sólidos, los dados tienen forma regular de sección redonda o cuadrada y forma irregular, como
perfiles estructurales, molduras, accesorios automotrices, etc.; b) perfiles
huecos, para tubos o mangueras (se requiere de un mandril para hacer la
forma hueca en este proceso); c) recubrimiento de alambres y cables eléctricos (el polímero fundido se aplica a un alambre desnudo, aunque hay un
vacío entre el alambre y el plástico).
Recubrimiento. Este proceso se usa para recubrimiento de cables y
alambres, de películas planas (telas, papel, cartón, etc.) y de contorno de
piezas. También se utiliza para el recubrimiento de películas planas, que
pueden ser de PE, PP, nylon y PVC. Los recubrimientos generalmente son
muy delgados, de 0.01 a 0.05 mm de espesor. Este tipo de proceso puede
hacerse por inmersión o por aspersión.
Moldeo por inyección. Este proceso es el más utilizado para termoplásticos. Los pellets se calientan hasta que estén completamente plásticos, y
posteriormente se hacen fluir por medio de presión hacia un molde donde
solidificarán. Este proceso es viable económicamente cuando la producción es muy grande.
Una máquina de moldeo por inyección consta de dos partes:
1. Unidad de inyección: parecido a un extrusor. Ahí se funden y homogeneizan los pellets; posteriormente se inyecta el polímero fundido al molde.
2. Unidad de sujeción: es la que se encarga de mantener cerrado el
molde durante la inyección, aplicando una F (de sujeción) mayor
que la del lado de la inyección. Existen unidades de sujeción articulada, hidráulica e hidromecánica.
176
Capítulo 7
Materiales en ingeniería y procesos de manufactura
Un aspecto que se debe tomar en cuenta en este proceso es la contracción o reducción en dimensiones lineales ocurrida durante el enfriamiento,
desde la temperatura de moldeo hasta la temperatura ambiente para cada
polímero. Es muy importante este cambio y debe considerarse en los cálculos, ya que la reducción puede ser de hasta 10%.
Moldeo por compresión. Método usado con frecuencia para polímeros
termofijos y elastómeros. Se usa para sistemas de calentamiento, como calentadores infrarrojos, calentamiento por convección en estufa o uso de
tornillos giratorios dentro de un cilindro caliente. Se utilizan elastómeros
para producir contactos eléctricos, mangos de ollas y sartenes, vajillas de
plástico, etcétera.
Una ventaja es que se trata de un proceso barato y genera poco desperdicio. Es lento debido al calentamiento; sin embargo, actualmente se trata
de precalentar la carga antes de entrar en contacto con el molde.
Moldeo por soplado. Este proceso se utiliza para la producción de partes
huecas, sin costura, a partir de polímeros termoplásticos. Se pueden producir envases desechables, tanques para gasolina de automóviles, juguetes,
botes pequeños, tambores para embarcar líquidos y polvos, etcétera.
Estas formas huecas se producen al soplar aire a un plástico suave (preforma) que se encuentra dentro de la cavidad de un molde. Se lleva a cabo
en dos pasos: a) fabricación del parison (tubo de plástico fundido) por extrusión o moldeo por inyección, y b) soplado del tubo hasta obtener la forma deseada.
Termoformado. Se trabaja a partir de una lámina plana de algún polímero termoplástico y se le da forma. Se realiza en dos pasos: primero se calienta y luego se le proporciona la forma. Este proceso se utiliza en la fabricación de tinas de baño, domos para tragaluces, revestimientos internos de
refrigeradores, etcétera.
Hay diversos tipos de termoformado al vacío, por presión y mecánico.
En ambos casos se utilizan moldes negativos y positivos; la decisión de usar
uno u otro dependerá de la pieza a fabricar. Los moldes positivos y negativos producen diferentes adelgazamientos de una pieza.
7.10 Manufactura integrada por computadora
Los procesos de conformado revisados en las secciones anteriores se caracterizan por transformar grandes cantidades de material mediante algún
elemento o dispositivo, como puede ser rodillo laminador, molde de inyección o fundición, o dado para extrusión. En todos los casos la flexibilidad
del proceso es limitada, puesto que depende del dispositivo en cuestión y
los volúmenes de producción no permiten hacer cambios con facilidad.
Los procesos de manufactura por arranque de viruta se emplean para
la fabricación de piezas únicas o, en su caso, para pequeños lotes; son las
herramientas y el proceso seleccionado los que determinan la forma final.
7.10 Manufactura integrada por computadora
177
FIGURA 7.8 Centro maquinado controlado por control numérico
En la actualidad, la variedad de este tipo de procesos es muy grande, aunque no poseen gran flexibilidad si no se asocian a un sistema de control
computarizado.
La manufactura integrada por computadora se enfoca hacia la automatización de un proceso de manufactura y de manejo de materiales, mediante técnicas integradas de control automático (electroneumática, SCADA,
PLC, etc.) y de control numérico computarizado (CNC). Esta integración
aporta al proceso de manufactura una gran flexibilidad y mejora notablemente la reproducibilidad de las piezas fabricadas.
En la manufactura integrada las máquinas de control numérico son las
que aportan la flexibilidad al proceso de fabricación, al responder a los códigos de control numérico suministrados por el operador, quien previamente
los generó en algún sistema de manufactura asistida por computadora
(CAM, por sus siglas en inglés) o los programó uno a uno. En la figura 7.8 se
muestra un centro de maquinado manejado por control numérico.
El proceso de manufactura computarizada parte de un diseño elaborado en algún programa de diseño asistido por computadora (CAD, por sus
siglas en inglés) a tamaño real, ya sea en sistema métrico o en sistema inglés. En la figura 7.9 se muestra un modelo de CAD.
Es importante recordar que de la calidad del diseño dependerá la pieza
a manufacturar; las alteraciones en la forma o errores en las dimensiones
serán reproducidas por la máquina de control numérico. El diseño en CAD
178
Capítulo 7
Materiales en ingeniería y procesos de manufactura
FIGURA 7.9 Modelo en CAD de mascarilla de oxígeno
se envía al sistema CAM mediante la conversión del archivo o en su formato nativo, si se dispone del traductor.
El programa de CAM sirve para fabricar de manera virtual la pieza que
ha de ser manufacturada por la máquina de control numérico y permite
generar los códigos con que opera la máquina. Por esta razón, en un sistema CAM se encuentra una representación virtual de la máquina CNC, de
las herramientas y el material. Dentro del programa CAM se elaboran las
rutas de corte que han de seguir las herramientas para elaborar la pieza
diseñada. A continuación se muestra una ruta de trabajo elaborada en un
sistema CAM para la elaboración del modelo positivo de un molde de inyección.
Cuando se ha logrado obtener la pieza diseñada empleando el programa CAM, como se muestra en la figura 7.10, o se han completado todas las
trayectorias de maquinado que reproducirán la pieza diseñada, se procede
a elaborar el código de control numérico de acuerdo con el tipo de control
que posee la máquina CNC. El código de control numérico se obtiene proporcionando al sistema CAM un posprocesador que transforma las rutas
de maquinado en códigos de control numérico que entiende la máquina
CNC. El código CNC contiene la información necesaria para indicar a la
máquina el número de herramienta a utilizar, la profundidad de corte, la velocidad y la forma del corte.
La naturaleza complementaria existente entre los sistemas CAD/CAM
permite una enorme flexibilidad en la manufactura de las piezas, pues cualquier cambio que se haga en el diseño se verá reflejado en las rutas de maquinado, ya que éstas dependen de la forma diseñada.
179
7.10 Manufactura integrada por computadora
Ruta de trabajo en un sistema CAM para maquinar un macho de un molde de inyección
Maquinado
Herramienta
Imagen
Descripción
Desbaste
Fresa plana de
1 pulg.
Con este maquinado se elimina la
mayor cantidad de material en el
bloque.
Se deja un sobrematerial que después se remueve con el pulido.
Desbaste de
restos
Fresa plana de
1/2 pulg.
Es necesario un desbaste de
restos, ya que el diámetro de la herramienta anterior es muy grande y
deja aún material en la pieza.
Se mantiene el sobrematerial.
Pulido
Fresa de bola de
1/8 de pulg.
En este maquinado se elimina el
sobrematerial para dar el acabado
final a la pieza.
Se logra maquinar casi todas las
zonas.
Pulido de restos
Fresa de bola de
1/8 de pulg.
Es necesario un último maquinado
para el área donde se encuentra
la línea de partición, ya que en la
etapa anterior no se maquina esta
zona.
180
Capítulo 7
Materiales en ingeniería y procesos de manufactura
FIGURA 7.10 Modelo terminado en CAM
7.11 Construcción rápida de prototipos
Durante el proceso de diseño de productos es necesario producir un prototipo, en el cual se puedan hacer pruebas realistas de operación y desempeño. Tradicionalmente, la manufactura de prototipos se hace siguiendo
una secuencia que conduce del dibujo técnico a las especificaciones de
manufactura; posteriormente, la pieza se produce por fundición o maquinándola en tornos y fresas. Este proceso, a pesar de ser útil, siempre ha
conllevado un tiempo considerable, incluso de meses, antes de obtener un
prototipo.
Con el advenimiento de poderosas herramientas computacionales, como el modelado de sólidos asistido por computadora en un ambiente CAD,
se han desarrollado técnicas especiales que permiten generar un prototipo
directamente a partir de un archivo de CAD. Estas técnicas pueden clasificarse en dos grandes grupos: procesos sustractivos y procesos aditivos. Si la
pieza generada en CAD es manipulada en un programa de manufactura
integrada por computadora, la cual genera las trayectorias y parámetros de
maquinado para fabricarla a partir de un bloque inicial, el proceso es sustractivo, esto es, se sustrae material del bloque inicial para construir el prototipo.
Otras técnicas más novedosas construyen el prototipo a partir de una
segmentación de la geometría en forma de capas. Esto es fácil de imaginar si
se toma el ejemplo de un fajo de naipes, en el cual cada naipe es una capa de
la geometría final. Algunos programas especializados generan la segmentación del sólido y definen la geometría a partir de estas capas. Las máquinas
especializadas, las cuales pueden verse como impresoras tridimensionales,
Referencias
181
forman capa por capa de la pieza al depositar o fusionar el material de ésta.
Entre las técnicas más empleadas se encuentra la estereolitograf ía, que utiliza como materia prima un polímero fotopolimerizable, el cual se solidifica
en forma selectiva con uso de un láser o un haz ultravioleta controlado por
computadora. Otras máquinas emplean la técnica de deposición de material fundido (FDM), en el cual un cabezal va depositando material capa por
capa.
Existen diversas tecnologías que permiten usar como materia prima
polvos metálicos, cerámicos o mezclas de éstos. El uso de estas tecnologías
permite reducir el tiempo de producción de un prototipo —que podría tardar meses con métodos convencionales— a tan sólo unos días.
EJERCICIOS PROPUESTOS
1. ¿Cuáles son los cinco grandes grupos en los que podemos clasificar a los materiales? Para
cada uno de ellos mencione algunas de sus propiedades o características e investigue algunas de sus aplicaciones.
2. ¿Qué aspectos deben estimarse para la selección de un proceso de manufactura? Considere
un envase para refresco, que puede ser hecho de diferentes materiales, como vidrio, aluminio o PET, investigue qué procesos son usados para cada material.
3. Mencione las tres principales clases de polímeros, así como algunas de sus características.
Investigue un ejemplo de cada uno y sus aplicaciones.
4. Elija algún producto o artefacto e identifique los materiales que lo componen. Según las
características de los mismos trate de identificar por qué se utilizaron esos materiales para
dicho producto/artefacto.
Referencias
Anderson, J. C. (2000). Ciencia de los materiales.
Noriega Limusa, México.
Askeland, D. R. (2010). The Science and Engineering
of Materials, 6a. Ed. Pacific Groove, CA,
Cengage Learning, USA.
Dieter, G. (1986). Mechanical Metallurgy. McGrawHill, Boston, Mass.
Groover, M. P. (2002). Fundamentals of modern
manufacturing —Materials, processes and
systems, 2a. Ed. John Wiley and Sons, Nueva
York.
Kalpakjian, S. y Schmid, S. (2001). Manufactura,
ingeniería y tecnología, 4a. Ed. Prentice Hall,
México.
Kalpakjian, S. y Schmid, S. (2003). Manufacturing
Processes for Engineering Materials, 4a. Ed.
Prentice Hall, Menlo Park, Ca.
Mangonon, P. L. (1999). The Principles of Materials
Selection for Engineering Design. Prentice Hall,
Upper Saddle River, N.J.
Schaffer, J. P. (1999). The Science and Design of
Engineering Materials. McGraw-Hill, Nueva
York.
CAPÍTULO
8
Ergonomía
AUTORES:
Dr. Sergio Romero Hernández
Mtra. Françoise Dushinka Brailovsky Signoret
8.1 Introducción
8.2 Historia de la ergonomía
8.3 Áreas de la ergonomía
8.4 Ergonomía de diseño centrado en el usuario
8.1 Introducción
La palabra ergonomía proviene del griego ergos, que significa trabajo o actividad, y nomos, que significa principios o leyes, por lo que literalmente significa “leyes del trabajo”. En un concepto más técnico, se dice que es el estudio del ser humano en su ambiente laboral, es decir, ergonomía es el estudio
de la interacción entre el hombre y las máquinas, así como los factores que
afectan esa interacción.
Para poder realizar el estudio de dicha interacción entre el hombre y el
objeto, se aplican principios científicos y métodos. Con la obtención de
datos provenientes de varias disciplinas se lleva a cabo el desarrollo de sistemas de ingeniería, lo que nos permite la formación de un sistema de soluciones donde el ser humano es tomado como factor principal del diseño.
Los métodos ergonómicos descritos por Kroemer (2001) son:
•
•
Investigación de observación: comúnmente utilizada en la medicina, toma mucho tiempo llevarla a cabo, ya que requiere de muchas
observaciones para describir un evento.
Investigación experimental: utilizada también en la medicina, separa a las personas por grupos y les aplica tratamientos clínicos
diferentes para observar lo que sucede.
184
Capítulo 8
•
•
Ergonomía
Experimentos en laboratorio: es un estudio más cuidadoso que
permite eliminar eventos atípicos que puedan alterar los resultados. En el laboratorio participan personas que se seleccionan de
manera voluntaria.
Estudios de campo: dado que los estudios en laboratorio en ocasiones se alejan de la realidad, se hace un estudio de campo para
aproximar la realidad de las situaciones.
El uso apropiado de estos métodos es un reto diario para los ingenieros y
diseñadores de factores humanos. Éstos conducen a las medidas que pueden estar en unidades objetivas o subjetivas. La medida es la forma especializada en que se valoran parámetros específicos del funcionamiento y rendimiento de la gente. Por ejemplo, la fuerza ejercida por la mano al utilizar
una herramienta se puede medir en términos de la aceleración, fuerza o
torque, con magnitudes y direcciones que varían con el tiempo, nivelando
la fuerza percibida o comparando con otras situaciones estresantes (Kroemer, Karl et al., Ergonomics, Prentice Hall, E.U., 2001).
Para obtener soluciones ergonómicas se involucran equipos de trabajo
y muchas disciplinas, como:
•
•
•
•
Psicología. Permite analizar cómo reacciona el ser humano ante
cosas o efectos.
Fisiología. Estudia cómo funcionan las partes del cuerpo.
Biomecánica. Analiza cómo se mueve el cuerpo humano o cómo
reacciona ante estímulos.
Antropometría. Analiza las medidas del cuerpo humano con base
en intervalos o promedios.
Con lo anterior, se deduce que una solución ergonómica es una solución
ingenieril, que va desde el uso de una herramienta hasta un sistema sociotécnico multipersonal; es decir, se ven involucradas varias personas o disciplinas al mismo tiempo.
Los puntos clave en la ergonomía son la seguridad y el confort; mientras más confort se logre para los operadores habrá mayor aceptación por
parte de los mismos, lo que llevará a un aumento de productividad y eficiencia del sistema de seguridad de operación, implicando una mejora en la
calidad de vida. Todo lo anterior son factores importantes que nos permiten conocer el éxito obtenido de un sistema ergonómico, de ahí que la ergonomía se conozca también como factores humanos, ingeniería humana
o seguridad industrial.
La ergonomía tiene tres objetivos principales y jerarquizados de acuerdo con NIOSH (The National Institute for Occupational Safety and Health):
•
Generar condiciones de trabajo tolerables que no arriesguen la vida y seguridad de sus operadores.
8.2 Historia de la ergonomía
•
•
185
Generar condiciones de trabajo óptimas para mejorar la operabilidad y capacidad de operación de los trabajadores, llegando a una
mejora en el rendimiento y la productividad.
Generar condiciones de trabajo aceptables en donde haya un mutuo acuerdo con los trabajadores en el ámbito organizacional, el
sociológico y el tecnológico.
Esta jerarquía establece que el objetivo más importante que debe cumplir una solución ergonómica es garantizar la seguridad y salud de los operadores, incluso si involucra una pérdida del confort en un caso extremo.
Hay dos aspectos de ergonomía que se deben llevar a cabo: primero se
realiza el estudio, investigación y experimentación necesarios para determinar los rasgos y características humanas que se deben conocer para realizar el diseño ingenieril; segundo, se debe tomar en cuenta la aplicación e
ingeniería donde se diseñan las máquinas, herramientas, ambientes laborales y procedimientos ajustados al ser humano, todo esto observando el desempeño actual y rutinas o procedimientos de los seres humanos y equipos
de trabajo, en un ambiente dado y evaluando la viabilidad de los sistemas
hombre-máquina para determinar si el problema es susceptible a mejoras.
La ergonomía es una forma de actuar, no es una filosof ía; es una actividad multidisciplinaria, es decir, es una disciplina científica y tecnológica, es
neutral e imparcial y busca la armonía del trabajador como persona. Por lo
mismo, debe ser aceptada por ambas partes (empleador y empleado), ya
que si una de ellas no está de acuerdo, no se logra el desempeño adecuado.
8.2 Historia de la ergonomía
Remontándonos a la época de la prehistoria, los hombres ya daban forma a
sus herramientas y armas (hachas, flechas, arcos) para hacerlas más fáciles
de usar, adaptándolas a los cuerpos y capacidades de las personas. Utilizando materiales como hueso, piedra, madera y hierro, buscaban precisión,
alcance, movilidad y fuerza. Se puede decir entonces que el ser humano
desde sus inicios siempre buscó una interacción con los objetos que usaba
para sobrevivir.
Desde la antigüedad los científicos han estudiado el trabajo para reducir sus lesiones y mejorar el rendimiento. En los siglos xv y xvi surgieron
personas dotadas, como Leonardo da Vinci y Alfonso Giovanni Borrelli,
quienes ya se especializaban en todo el conocimiento de anatomía, fisiología y diseño de equipos.
En los siguientes siglos las ciencias de la anatomía y la fisiología se diversificaron y empezaron a acumular muchos conocimientos más detallados.
Desde el principio de la Revolución Industrial, en el siglo xviii, la seguridad, higiene y confort en el trabajo han preocupado e involucrado a
mucha gente que inicia el desarrollo de diversas disciplinas de estudio que
186
Capítulo 8
Ergonomía
dan soluciones ergonómicas, como la ingeniería industrial, la medicina
ocupacional y la propia ergonomía.
Es en 1713 cuando Bernardino Ramazinni (1633-1714), en el suplemento que hizo a su publicación De Morbis Artificum (La muerte en los
trabajadores), da a conocer, desde un punto de vista médico, la relación que
observó entre el trabajo desarrollado y los daños músculo-esqueléticos.
El término ergonomía fue introducido en la literatura hacia 1857 por el
educador y científico polaco Wojciech Jastrzebowski (1799-1882), considerado padre de la ergonomía, quien fue profesor de Ciencias Naturales en el
Instituto Agrónomo en Varsovia. Su libro se tituló: Compendio de ergonomía o de la ciencia del trabajo basada en verdades tomadas de la naturaleza. En su descripción original de la ergonomía, Jastrzebowski tuvo cuidado
en señalar su intento de darle a la palabra “trabajo” un significado muy amplio: “Esta ciencia del trabajo, comprendida comúnmente como trabajo, no
sólo se refiere al aspecto f ísico, sino también al aspecto estético, racional y
moral del trabajo” (Budnick, Peter, Ph. D., CPE, Ergoweb. What is Ergonomics Really About?, 2004).
En 1881, Friedrich Guldreich Erisman (1842-1915), médico ruso de
origen suizo fundador de la higiene en Rusia, organiza la cátedra de Higiene en la Universidad de Moscú y efectúa estudios pioneros sobre las condiciones higiénicas del trabajo y vida de los obreros fabriles (Mondelo, Pedro
R. et al., Ergonomía 1, 2000).
Hacia principios del siglo xx, cuando la producción industrial dependía en gran medida de la experiencia y habilidad personal de cada trabajador, se comienzan a desarrollar y aplicar herramientas científicas y administrativas que buscan incrementar la eficiencia y calidad en los procesos
productivos, dentro de las cuales se involucraban algunos de los conceptos
de ergonomía. Se analizan los puestos de trabajo y actividades a través del
análisis de tiempos y movimientos, buscando que las herramientas y el
equipo requerido fueran más eficientes y menos fatigosos para el trabajador.
En 1915 se crea en Inglaterra el Health of Munitions Workers Committee (HMWC, por sus siglas en inglés), que incluía a algunos investigadores
con entrenamiento en fisiología y psicología, con el fin de llevar a cabo investigaciones acerca de los problemas de fatiga en la industria, ya que los
trabajadores de las fábricas de municiones eran importantes para mantener
los esfuerzos de la Primera Guerra Mundial (1914-1918).
El comité HMWC, en 1929, tomó el nombre de Industrial Health Research Board (IHRB, por sus siglas en inglés: Comité de Investigación de la
Fatiga Industrial). Fue entonces cuando se empezaron a considerar aspectos
teóricos y prácticos del hombre en el trabajo, particularmente en lo concerniente a la preservación de la salud entre los trabajadores y la eficiencia industrial. Dicha organización contaba con investigadores entrenados, como
psicólogos, fisiólogos, médicos e ingenieros, que trabajaban juntos.
8.2 Historia de la ergonomía
187
FIGURA 8.1
Sin embargo, fue hasta la Segunda Guerra Mundial (1939-1945) cuando
la ergonomía tiene un desarrollo importante, debido al desarrollo acelerado
de máquinas y equipo complejo en el área militar que se dio en esa época
(radares, aviones, etc.), como se muestra en la figura 8.1. Es aquí cuando se
presentan problemas en el desempeño de los operadores y encargados de
mantenimiento, ocasionándoles estrés, consecuencia del desconocimiento
del comportamiento humano y características físicas del usuario. Es así como se empiezan investigaciones aplicando totalmente el concepto de ergonomía, también conocida como factores humanos.
Esta situación, que ocurre simultáneamente en Estados Unidos e Inglaterra, requiere de especialistas de diferentes áreas, como ingeniería, fisiología, medicina, sociología y antropología, trabajando en equipo. Términos
como ingeniería humana y psico-ingeniería son usados para describir los
primeros esfuerzos de diseño.
Después de la Segunda Guerra Mundial se cambia el enfoque a la industria, aunque en algunos países también continúa su desarrollo en los
programas militares y posteriormente en aeroespaciales.
La Sociedad Ergonómica de Investigación de Gran Bretaña, fundada
en 1950, es la primera sociedad que se forma agrupando las múltiples disciplinas que involucran a los humanos; en ésta se adoptó oficialmente la
utilización moderna del término “ergonomía”. En 1961 se lleva a cabo
la primera reunión internacional de sociedades de ergonomía en Estocolmo, sentando las bases para la formación de la Asociación Internacional de
Ergonomía, que actualmente agrupa más de 20 asociaciones nacionales de
ergonomía y factores humanos alrededor del mundo, incluyendo Estados
Unidos, Inglaterra, Japón, Australia, México, China, Inglaterra, Francia,
Alemania, Yugoslavia, Croacia, India, Brasil, Rusia, Turquía, entre otros
(Michael Rachel, Ergoweb. Ergonomics as a Global Initiative: Presence and
Purpose, 2004).
De 2001 a la fecha cientos de universidades alrededor del mundo están
haciendo investigación en ergonomía y sus disciplinas afines, con el fin de
aplicarla en el desarrollo de proyectos con otras universidades, el gobierno
188
Capítulo 8
Ergonomía
y con la industria privada, y así mejorar la calidad de vida de cualquier persona, en cualquier situación.
La ergonomía debe considerar el aspecto f ísico, cognitivo, social, organizacional, ambiental y todos aquellos factores que influyan sobre el desempeño del ser humano. Este panorama puede clasificarse de forma general en tres grandes áreas, dependiendo del tipo de problema que se involucra:
Ergonomía física: involucra áreas de anatomía, antropometría, características fisiológicas y biomecánicas aplicadas a la actividad f ísica del humano.
Se analizan los factores ambientales y su influencia sobre el desempeño
de los humanos, posturas de trabajo, microtraumatismos repetitivos, distribución de los espacios de trabajo, entre otros.
Ergonomía cognitiva: área involucrada con los procesos mentales, como
la percepción, memoria, razonamiento y las respuestas motoras. Los ergonomistas especialistas en esta área se encargan del estudio de temas como
análisis de la carga mental, procesos de toma de decisiones, la interacción
entre humanos y computadoras, estrés, entrenamiento y capacitación, entre otros.
Ergonomía organizacional: área involucrada con la optimización de los
sistemas socio-técnicos, cuyos temas relevantes son el estudio de la comunicación, diseño del trabajo, diseño de tiempos y turnos de trabajo y descanso, diseño participativo, trabajo en equipo, entre otros.
Los ergonomistas deben trabajar en equipo y con especialistas de otras
áreas por el enfoque holístico de la disciplina, por lo que la clasificación de
las áreas de la ergonomía no implica que sean excluyentes entre sí. Algunos
ejemplos donde se refleja el trabajo conjunto entre ergonomistas y especialistas de otras áreas son:
•
•
•
•
Diseño de cabinas de avión.
Diseño de trajes y equipos de protección personal para actividades
de alto riesgo, e incluso para deportistas con los que se ha disminuido el riesgo de lesiones y mejorado su desempeño.
Análisis del efecto del ruido sobre los humanos.
Análisis de las tareas para calcular el tiempo de trabajo y el tiempo
de descanso requerido.
En general, se participa en el estudio y análisis de las actividades donde
intervenga el ser humano, como pueden ser las que se realizan en el hogar,
las recreativas, deportivas y educativas. Sin embargo, es una disciplina joven
donde aún falta mucho trabajo por realizar, como lo es con la recolección de
datos e información sobre las capacidades y condiciones que se deben aplicar a los diseños para niños, personas de la tercera edad y personas con algún tipo de discapacidad, ya que los estudios se han llevado a cabo enfocándose, principalmente, en los hombres y mujeres de edad productiva.
8.3 Áreas de la ergonomía
189
8.3 Áreas de la ergonomía
Antropometría
Biomecánica
Fisiología
Áreas
especializadas
Ergonomía ambiental
Ergonomía cognitiva
Ergonomía de diseño y evaluación
Ergonomía de necesidades específicas
Ergonomía preventiva
La Sociedad de Ergonomistas de México y la Asociación Española de Ergonomía proponen una clasificación que considera ocho áreas especializadas,
con el objetivo de poder describir con más detalle las actividades y áreas a
las que se enfocan los ergonomistas.
8.3.1 Antropometría
Es el área de la ergonomía que trata con las medidas del cuerpo humano,
como tamaño del cuerpo, formas, fuerza y capacidad de trabajo.
La palabra antropometría deriva de la palabra griega anthropos, que
significa hombre, y de metrón, medida. Los datos antropométricos son utilizados para especificar las dimensiones f ísicas de los espacios de trabajo
y, como lo mencionó Grandjean en 1980, “adaptar la tarea al hombre”, buscando evitar problemas derivados de las incompatibilidades entre las características f ísicas del ser humano, los requerimientos del trabajo y los
equipos que utiliza.
Desde la época del antiguo Egipto y la Grecia clásica se consideraban
las dimensiones de los humanos para realizar el diseño arquitectónico de
algunos edificios; sin embargo, el estudio más detallado de las proporciones humanas data aproximadamente del año 15 a.C., donde se argumenta
que las dimensiones de los edificios debían fundamentarse en ciertos principios estéticos preestablecidos del cuerpo humano.
Debido a que existen muy pocas situaciones en donde se puede diseñar
un producto o una estación de trabajo para un solo usuario, como podría
ser un traje confeccionado a la medida del cliente, el asiento para un automóvil de carreras o la cabina de una nave espacial diseñada para determinado tripulante, el desarrollo de la producción ha generado la necesidad de
conocer y utilizar las medidas del cuerpo humano, por lo que se han reali-
190
Capítulo 8
Ergonomía
zado estudios que tienen la finalidad de contar con una base de datos antropométricos de la población. La mayor parte de estos estudios se refieren a
una población que incluye hombres y mujeres, en edades que comprenden
entre los 18 y 65 años, ya que ésta es considerada como la edad laboral.
Los datos antropométricos que interesan en el área laboral pueden ser:
•
•
•
Estáticos. Las dimensiones se obtienen entre puntos anatómicos
del cuerpo, donde el cuerpo se encuentra inmóvil, por ejemplo, la
altura de una persona.
Funcionales. Describen el movimiento de alguna parte del cuerpo
con respecto a un punto fijo de referencia, como puede ser la distancia máxima de alcance de un sujeto de pie, como se aprecia en
las figuras 8.2 y 8.3.
Newtonianos. Se usan en el análisis mecánico de las cargas del
cuerpo humano, considerado como un ensamble de segmentos
con cierta masa, ligados entre sí. Estos datos pueden ser utilizados
para comparar las cargas ejercidas sobre la columna vertebral
cuando se utilizan diferentes técnicas de levantamiento de cargas.
Es importante considerar que para hacer análisis ergonómicos de una
población se debe contar con la información estadística actualizada de la
misma. Los datos antropométricos se miden generalmente en percentiles,
que expresan el porcentaje de individuos de cierta población con una dimensión corporal igual o menor a un determinado valor.
Estos datos antropométricos tienden a una distribución normal, lo que
significa que para cualquier dimensión del cuerpo humano (por ejemplo, la
estatura estando sentado o parado, el alcance del brazo estirado), la mayoría de los individuos se encuentra en torno al valor medio, existiendo pocos
individuos muy bajos o muy altos. Esto quiere decir que la curva de Gauss
FIGURA 8.2
FIGURA 8.3
191
8.3 Áreas de la ergonomía
está presente siempre en la antropometría, haciendo más sencillo el diseño
de nuevos objetos con un fin ergonómico.
f(x)
Campana de Gauss
ms
m
ms
x
Tomada de: www.uantof.cl/facultades/csbasicas/Matematicas/academicos/emartinez/Estadistica/
normal/normal.html
Los percentiles más empleados en diseño ergonómico son el p5 y el p95,
es decir, que se proyecta para 90% de los usuarios. Sin embargo, cuando se
trata de garantizar la seguridad del usuario, se emplean los p1 y p99, que
cubren a la mayor parte de la población (sólo deja fuera un 2%). Normalmente se utiliza el p5 para los alcances y dimensiones externas, mientras
que para las dimensiones internas se emplea el p95 (con la finalidad de que
se considere a las personas de mayor tamaño). (Tomado del Instituto Nacional de Seguridad e Higiene en el Trabajo, http://www.insht.es/).
Si las observaciones se tratan según una distribución normal, de acuerdo con el teorema central de límite, los puntos de inflexión de la curva f(x)
serán:
p m zs
y p m zX
En donde:
p medida del percentil en centímetros, que dará como resultado
el intervalo en donde se incluye el porcentaje de la población
o de la muestra.
z coeficiente que depende del percentil y dará el número
de veces que sigma estará separada de la media.
La tabla 8.1 muestra varios percentiles (p) que se utilizan en el análisis
antropométrico y sus respectivas z.
Hay que conocer la media y la desviación estándar de cada dimensión
de la población para poder hacer cálculos y tomar decisiones. Si se cuenta
con datos antropométricos ya publicados, éstos se pueden utilizar siempre
192
Capítulo 8
Ergonomía
TABLA 8.1 Percentiles utilizados en el análisis antropométrico
p
z
p
z
p
z
p
z
0.5
2.58
25
0.67
55
0.13
85
1.04
1
2.326
30
0.52
60
0.25
90
1.28
5
1.645
35
0.39
65
0.39
95
1.645
10
1.28
40
0.25
70
0.52
99
2.326
15
1.04
45
0.13
75
0.67
99.5
2.58
20
0.84
50
0.00
80
0.84
Tomada de Chiner Dasí, Mercedes et al., 2004, Laboratorio de Ergonomía, España. (México, Alfaomega), y Mondelo, Pedro R. et al.,
2000, Ergonomía 1, España. (México, Alfaomega).
y cuando sean de la población a quien se le va a diseñar; si no se cuenta con
estos datos, se pueden obtener utilizando diversos instrumentos de medición simples, como cinta métrica, regla, vernier, entre otros. Por ejemplo,
la estatura media de cierta población es de 155 cm y su respectiva desviación estándar es de 5 cm.
Suponga que se van a construir nuevas oficinas y se desea saber qué altura debe tener la puerta de acceso, para que 95% de la población no tenga
problemas al pasar por éstas. Esto quiere decir que se está diseñando para el
máximo de la población, pues si el más alto pasa por la puerta, también lo
podrá hacer la persona más baja de estatura. De acuerdo con la tabla anterior, el valor de z para este percentil (p) es de 1.645. Resolviendo tenemos:
p95 155 1.645(5)
p95 163.225
Esto quiere decir que las puertas de las oficinas deben tener una altura
de 163.225 cm para que 95% de la población pueda usar el acceso fácilmente. Del percentil 95 en adelante se les dificultará el acceso.
Para aplicar un percentil que se encuentra por debajo de la media, suponer que se quiere calcular la distancia necesaria entre el usuario y el tablero de control de cierta máquina. Para esto es importante considerar a los
usuarios que tienen un alcance menor del brazo, para que no se les dificulte alcanzar el tablero, pues si ellos lo pueden alcanzar, una persona de estatura más alta también lo podrá alcanzar. Se considerará, por ejemplo, el
percentil 10. Una vez sacando muestras de la población, se obtiene que
el alcance promedio de brazo tiene una media de 68 cm con una desviación
estándar de 2 cm. Resolviendo:
p10 68 1.28(2)
p10 65.44
8.3 Áreas de la ergonomía
193
Esto quiere decir que los trabajadores con un alcance máximo del brazo de 65.44 cm o más utilizarán el tablero sin dificultades, esto es, 90% de
la población. El otro 10% de la población quedará fuera del alcance, teniendo que hacer un esfuerzo extra para estirar el brazo y alcanzar.
Como se vio en los ejemplos anteriores, existe mucha variabilidad, sobre todo en poblaciones grandes, lo que hace dif ícil incluir a toda la población en los diseños ergonómicos. No obstante, con estos estudios se logra
incluir a la mayor parte de la población, dependiendo del percentil utilizado, con el fin de que los diseños estén centrados lo mejor centrados en el
usuario.
Existen otros factores de variabilidad, además de las mediciones, que
deben considerarse al utilizar los datos antropométricos, como el género,
diferencias étnicas, edad, la nacionalidad, entre otros.
El intervalo del movimiento que permite el asiento de un automóvil es
un ejemplo donde se aplica el diseño, basándose en datos antropométricos,
que permite un ajuste adecuado para cada usuario.
La selección de equipo de protección personal, de mobiliario, la disposición de elementos de control de tableros, así como el diseño de estaciones
de trabajo, de herramientas y dispositivos de ensamble, son ejemplos donde
resulta conveniente contar con datos antropométricos de la población para
la que se destina el producto o espacio de trabajo.
En estos estudios es de suma importancia desarrollar una apreciación
de la antropometría, ser capaz de medir correctamente los datos antropométricos y aplicar técnicas de la antropometría a la compra de nuevas herramientas y a la modificación de estaciones de trabajo.
8.3.2 Biomecánica
La biomecánica es la aplicación de los principios mecánicos al hombre,
tanto en movimiento como en reposo, donde se busca unir la mecánica con
el estudio de la anatomía y la fisiología, ya que el ser humano se conforma
de varias estructuras mecánicas, como huesos (sus palancas), músculos
(como muelles), articulaciones (los elementos de rotación).
El objetivo principal de la biomecánica es el estudio del cuerpo con el
fin de obtener un rendimiento máximo, resolver algún tipo de discapacidad
o diseñar tareas y actividades para que la mayoría de las personas puedan
realizarlas sin riesgo de sufrir daños o lesiones.
Las áreas de investigación de las que se encarga la biomecánica son el
movimiento manual de cargas, microtraumatismos repetitivos y los trastornos por traumas acumulados. Un área de gran importancia es la evaluación y rediseño de tareas y puestos de trabajo, que evalúan causas para
prevenir futuras lesiones.
La biomecánica se basa en el conjunto de conocimientos de diversas
áreas, como la medicina del trabajo, la fisiología, la antropología y la física.
194
Capítulo 8
Ergonomía
La búsqueda de límites de peso y repetición durante el movimiento
manual de cargas, lesiones biomecánicas y microtraumatismos repetitivos
son problemas cada vez más numerosos y frecuentes en el mundo industrial; son los problemas que atañen a los ergonomistas biomecánicos. Una
de las áreas donde es importante la participación de los especialistas en
biomecánica es en la evaluación y rediseño de tareas y puestos de trabajo
para personas que han sufrido lesiones o han presentado problemas por
estos microtraumatismos.
El movimiento manual de cargas presenta múltiples problemas, que
pueden considerarse como accidentes directos (golpes, rasguños, etc.),
que causan lesiones concretas y generalmente traumáticas, o lesiones que
se producen por un mal diseño de la tarea, en el cual se va acumulando
poco a poco hasta degenerar en dolores o lesiones de espalda, tanto en
miembros superiores como en miembros inferiores.
Los microtraumatismos repetitivos (MTR) o trastornos por traumas
acumulados son pequeñas lesiones que se producen al realizar tareas que
demandan movimientos repetitivos, mismos que van causando pequeñas
lesiones prácticamente imperceptibles, pero que finalmente se manifiestan
después de un tiempo, que varía desde algunos meses hasta años. Como
consecuencia de éstos, las propiedades mecánicas y la funcionalidad de los
tejidos afectados van disminuyendo, esto provoca la presencia de daño o
dolor persistente en articulaciones, músculos, tendones y otros tejidos
blandos.
El uso excesivo de fuerza o en posiciones no adecuadas, puede provocar lesiones que se resienten hasta un tiempo después de realizados los esfuerzos, mientras que en los esfuerzos por contacto, provocados por la presión continua de una superficie dura o una esquina contra los tejidos
blandos de alguna extremidad, provoca el decremento del flujo de sangre y
la compresión de nervios.
Para evitar estos problemas es importante realizar la actividad de forma confortable y segura, con el cuerpo en una posición estable, en una
adecuada relación entre las partes del cuerpo y el soporte provisto por los
pies, el asiento y cualquier otra superficie que soporte el peso del cuerpo y
miembros en el espacio de trabajo.
Los conceptos básicos son mecánica, fuerza, materia, peso, espacio y
presión.
Mecánica: es el estudio de las fuerzas y sus efectos. Se divide en estática, que es cuando un cuerpo está en equilibrio (reposo o movimiento uniforme), y dinámica, cuando el cuerpo se encuentra en movimiento involucrando factores como desplazamiento, velocidad, aceleración, traslación y
rotación.
Fuerza: es el resultado de la interacción entre dos cuerpos. La interacción puede ser a distancia o por contacto, mientras que el origen puede ser
interno o externo.
8.3 Áreas de la ergonomía
195
FIGURA 8.4
Sus características son: valor, dirección, sentido y punto de aplicación,
las cuales están representadas por un vector, donde el valor del vector representa la longitud, la dirección es la localización de su trazado, el sentido
es la punta de la flecha y el punto de aplicación es donde está colocado.
Para lograr una mayor exactitud se utiliza un diagrama de fuerzas, como se
muestra en la figura 8.4.
Espacio: las fuerzas pueden actuar a lo largo de una sola línea, en un
plano único o en cualquier dirección del espacio.
El espacio se utiliza para describir el movimiento humano, la figura 8.5
muestra los planos:
•
•
•
•
Plano frontal o coronal, divide el cuerpo en dos mitades, anterior y
posterior (x, y), y proyecta los movimientos de abducción y aducción.
Plano sagital medio, separa al cuerpo en dos mitades, derecha e
izquierda (y, z), y proyecta los movimientos de flexión y extensión.
Plano trasversal u horizontal, divide el cuerpo en dos partes, superior e inferior (x, z), y proyecta el movimiento de rotación.
Plano de Frankfurt, que es horizontal y pasa por la parte superior
de la abertura de la oreja y por el punto inferior de la cavidad ocular. Este plano también es importante para realizar estudios antropométricos, ya que si la persona no está parada perfectamente vertical (ni con la cabeza muy agachada ni muy levantada), las
mediciones se pueden modificar, alterando los resultados finales.
196
Capítulo 8
Ergonomía
Plano frontal
Plano sagital
Plano transversal
FIGURA 8.5
Materia: masa que ocupa espacio. Para poder aplicar los principios de
la mecánica al movimiento se utiliza el concepto de centro de gravedad.
El punto donde está situado el centro de masas de un cuerpo es la pelvis (figura 8.6); sin embargo, el punto exacto varía según el tipo morfológico, la edad y el sexo.
Peso: fuerza de atracción de la Tierra que se ejerce sobre una masa. Las
unidades de medición son newtons (N) o kilogramos (kg).
Presión: indica cómo está distribuida la fuerza sobre una cierta superficie. Su ecuación está dada por:
P F/A
FIGURA 8.6
197
8.3 Áreas de la ergonomía
TABLA 8.2 Porcentaje de pesos
Parte del cuerpo
Cabeza y cuello
Tronco con cabeza y cuello
Porcentaje del total del cuerpo
7.9
56.5
Brazo
2.7
Antebrazo
1.5
Mano
0.6
Muslo
9.7
Pierna
4.5
Pie
1.4
donde P presión, F fuerza, A área. Las unidades son pascales (Pa).
La resolución de los problemas biomecánicos buscan aplicar los conceptos f ísicos de la mecánica al sistema músculo-esquelético humano.
Se utilizan dibujos a base de líneas para hacer la representación de las
personas y sus articulaciones. Estos diagramas permiten:
1.
2.
3.
4.
5.
Ver qué partes del cuerpo actúan en la actividad.
Determinar el lugar donde se genera el movimiento.
Anotar si hay más de un movimiento.
Identificar articulación y músculos específicos.
Decidir en qué plano o planos se puede analizar mejor el movimiento.
6. Determinar dónde y cuándo actúa la gravedad en el cuerpo humano, en las herramientas u otros objetos que manipulamos.
7. Determinar qué fuerzas son operativas en el movimiento específico de partes del cuerpo, objetos o herramientas.
8.3.3 Fisiología
La fisiología estudia los procesos f ísicos y químicos en la realización de
funciones vitales, desde una célula hasta el comportamiento del ser humano en su totalidad con su entorno y el medio ambiente.
Las actividades que involucra son reproducción, crecimiento, metabolismo, respiración, excitación y contracción. La fisiología estudia cómo el
cuerpo se adapta a la temperatura y a condiciones ambientales extremas, y
nos permite saber cómo soportar el estrés que nos impone el medio ambiente. La tensión se da por cambios en el metabolismo, incremento del
ritmo cardiaco y respiración, y por el incremento en la presión.
Existen dos áreas que la integran: la fisiología del trabajo y la fisiología
ambiental:
198
Capítulo 8
•
•
Ergonomía
La fisiología del trabajo trata con requerimientos energéticos y
proporciona estándares aceptables sobre el ritmo de trabajo, carga
de trabajo y requerimientos nutricionales.
La fisiología ambiental estudia el impacto de condiciones f ísicas
de trabajo, como los impactos térmicos, de ruido, vibración, iluminación y establecimiento de los requerimientos óptimos.
8.3.4 Ergonomía ambiental
Área de la ergonomía que se encarga del estudio de las condiciones f ísicas
que rodean al ser humano y que influyen en su desempeño al realizar diversas actividades, como:
•
•
•
•
Ambiente térmico
Nivel de ruido
Nivel de iluminación
Vibraciones
Ambiente térmico: para el ser humano es de suma importancia mantener y regular la temperatura interna del cuerpo, el cual tiende a igualar su
temperatura con el ambiente que lo rodea. La regulación térmica del cuerpo requiere de un adecuado balance entre la cantidad de calor que produce
el metabolismo, la actividad muscular y el calor que pierde hacia el ambiente, con el fin de mantener la temperatura interna entre 36 y 37C. Para esto
es importante proveer un ambiente que permita establecer dicho equilibrio
y evite el estrés térmico. En el mundo del trabajo son más frecuentes las
exposiciones al calor elevado que las exposiciones al frío intenso, por lo que
se considera al calor como contaminante.
El calor es el único contaminante que es generado por el propio organismo humano, incluso el hombre posee una gran resistencia a él en comparación con otras agresiones, como lo son las químicas. Las respuestas
fisiológicas en relación al calor se dan como incremento de la circulación
de la sangre en las proximidades de la piel y como sudoración. La aclimatación al calor se manifiesta a través de la disminución del ritmo cardiaco,
incremento de la sudoración y la reducción de la concentración salina en el
sudor. Esta aclimatación se logra en periodos breves, aproximadamente
seis días. La única forma de conocer la información sobre la respuesta individual de disconformidad con el ambiente térmico la constituyen las manifestaciones del sujeto.
Las actividades de los ergonomistas dedicados a esta área se enfocan en
encontrar las condiciones que faciliten la regulación térmica del cuerpo, la
evaluación y diseño de la vestimenta y equipo de seguridad personal adecuados para las condiciones climáticas donde se realiza el trabajo y la determinación de la carga de trabajo y su duración, con base en las condiciones
ambientales.
8.3 Áreas de la ergonomía
199
El trabajo de los operadores en altos hornos de fundición de acero, el
trabajo exterior durante el invierno en países nórdicos o en ambientes intermitentes de temperatura son algunos ejemplos de trabajos en condiciones climáticas extremas.
Mecanismos de intercambio térmico:
•
•
•
Convección. Intercambio de calor entre la piel y el aire.
Radiación. Intercambio de calor en forma de rayos infrarrojos entre la piel y los objetos que rodean al cuerpo.
Evaporación. Intercambio de calor entre la piel y el aire mediante
la evaporación del sudor.
Independientemente del nivel de agresividad ambiental, los criterios
de valoración han de tener en cuenta otra variable independiente: el nivel de
actividad, el cual se mide en kilocalorías (kcal).
La magnitud del calor intercambiado depende de las características del
vestido y de cuatro variables ambientales:
1.
2.
3.
4.
Temperatura del aire.
Temperatura radiante media.
Velocidad del aire.
Humedad del aire.
En situaciones de confort debe cumplirse una relación entre tres tipos
de variables:
a) Características del vestido: aislamiento y área total del mismo.
b) Características del tipo de trabajo: carga térmica metabólica y velocidad del aire.
c) Características del ambiente: temperatura seca, temperatura radiante media, presión parcial del vapor de agua en el aire y velocidad del aire.
Reducir las aportaciones térmicas exteriores de influencia desfavorable
en el ambiente térmico interior y las que provienen de fuentes de calor
inherentes al proceso de fabricación, son las actividades a realizar para la
protección contra el calor. De esta forma, se puede actuar sobre la fuente de
calor de varias formas.
Externamente: puede hacerse una protección eficaz actuando simultáneamente sobre tres características de la pared:
1. Aumento del coeficiente de reflexión, con el fin de reducir el flujo
del calor absorbido.
2. Aumento del coeficiente del cambio de calor externo, de forma que
facilite la evacuación hacia el exterior de la mayor parte del flujo de
calor absorbido.
200
Capítulo 8
Ergonomía
3. Aumento de la resistencia térmica del muro, de manera que se
mantenga la temperatura interna lo más baja posible.
Internamente: por medio de fuentes de calor convectivas y fuentes radiantes:
1. Actuando sobre el medio: es posible corregir la temperatura del
aire en el interior de los edificios mediante una ventilación adecuada, utilizando el aire exterior o bien el aire previamente tratado.
2. Ajustando la velocidad del aire: la ventilación localizada puede realizarse con aire recogido in situ, o con aire previamente enfriado.
3. Actuando sobre el individuo: por medio de una reducción de la
producción de calor metabólico, limitando la duración de la exposición o creando un microclima en el puesto del operario.
Los vestidos de protección contra el calor deben reducir la carga térmica soportada por el hombre, por lo que fundamentalmente han de cumplir
lo que sigue:
1. No deben ser inflamables.
2. Deben oponerse a la penetración del calor por el aire (convección).
3. Han de eliminar el calor que penetra, a través del vestido y el producido por el organismo.
Ambiente lumínico: la iluminación es un factor ambiental que interesa
al ergonomista por su influencia en el desempeño de las tareas de los humanos. Fundamentalmente se estudian los factores de la visión, las fuentes
de iluminación, así como las características y requerimientos de las tareas
y el entorno. Una iluminación óptima aumenta la capacidad de trabajo y la
percepción visual, evitando posibles errores.
La iluminación puede interferir en:
•
•
•
•
•
•
La adecuada visualización de los objetos y entornos.
La eficiencia y eficacia del trabajador.
Proporcionar la información adecuada y oportuna de señalización.
El confort.
La salud visual.
La adecuada percepción e interpretación de señales visuales por
parte de los trabajadores.
La visión es un fenómeno complejo que abarca fenómenos f ísicos, biológicos y psicológicos. Comienza con la formación de la imagen al incidir la
luz sobre un objeto. Esta imagen, por reflejo de las ondas, llega al aparato
ocular; la retina convierte la energía electromagnética en energía nerviosa
y reproduce en la mente una copia de la imagen inicial. Una vez reproducida la imagen, el cerebro la interpreta, esto se puede apreciar en la figura 8.7.
8.3 Áreas de la ergonomía
201
Estímulo
Centro
nervioso
Receptor
Vía de
comunicación
FIGURA 8.7
Facultades visuales:
•
•
•
Agudeza visual: es la facultad de distinguir pequeños objetos muy
próximos entre sí.
Acomodación: es la facultad de formar una imagen nítida de un
objeto que está a una distancia determinada.
Adaptación: es la capacidad del ojo para ajustar las diferentes iluminaciones de los objetos. El ojo puede adaptarse rápidamente a
un aumento de iluminación, pero el proceso inverso es mucho más
lento.
Unidades fotométricas: una fuente luminosa es todo aquello capaz de
producir luz.
•
•
•
•
•
Flujo radiante: cantidad total de energía radiada por unidad de
tiempo [W].
Flujo luminoso: fracción del flujo radiante emitido bajo la forma de
radiación visible [Lm].
Intensidad luminosa: flujo luminoso emitido por una fuente en
una dirección dada [Cd].
Lumen: cantidad de luz que se escapa de una superficie de 1 m2
recortada en una esfera de 1 m de radio y cuyo centro será la fuente puntual de una candela.
Iluminancia: flujo luminoso recibido por una superficie
(1 lux 1 lumen/m2)
•
Iluminancia de una superficie en una dirección determinada: relación entre la intensidad luminosa emitida en dicha dirección y la
superficie vista por el observador situado en la misma dirección.
202
Capítulo 8
Ergonomía
Nivel de iluminación: para evitar fatiga, el ergónomo debe cuidar el nivel
de iluminación y la relación de luminancias entre el plano de trabajo y el
entorno. Los niveles de iluminación se encuentran en las reglas UNE y los
manuales de iluminación. Algunos valores son:
Salas de dibujo y similares
800–1500 lux
Grandes espacios de venta
500–1000 lux
Oficinas
400–800 lux
Archivos, pasillos, etc.
100–200 lux
La iluminación se puede lograr con luz natural, luz artificial o luz mixta. La existencia de ventanas genera una situación psicológica favorable.
Influencia de las condiciones reales: la edad del observador es una condición que influye en el ambiente de trabajo, así como la reflexión del fondo
puede provocar que se reduzca el contraste de la tarea, lo que puede contrarrestar aumentando el nivel de alumbrado.
Tipos de alumbrado:
•
•
•
Alumbrado directo: la totalidad del flujo emitido está concentrada
sobre un plano útil.
Alumbrado indirecto: la totalidad del flujo emitido está dirigida al
techo o a lo alto de las paredes.
Alumbrado mixto: se combinan el alumbrado directo y el indirecto.
Algunas características:
•
•
•
El brillo en una zona de trabajo produce disconfort, por lo que se
debe buscar una zona de trabajo donde no exista.
Para el confort visual, la iluminación uniforme es la mejor opción.
Los colores son empleados como auxiliares del hombre en sus funciones cotidianas. Los colores ayudan a tener seguridad, visibilidad
y limpieza.
Ambiente sonoro: el sonido es cuando las variaciones de presión del
aire ambiente son detectadas por el oído humano, mientras que el ruido es
todo fenómeno acústico que produce una sensación generalmente desagradable.
En 1954, el Instituto Nacional de Estándares Americanos (ANSI) realizó una evaluación para conocer la relación entre la pérdida auditiva y los
niveles de exposición de ruido, presentando como conclusión que la pérdida auditiva está relacionada con los tiempos de exposición, especialmente
cuando los niveles de ruido son elevados.
203
8.3 Áreas de la ergonomía
El objetivo es encontrar la forma de reducir, aislar o controlar la emisión de ruido para lograr una condición ambiental óptima para el desempeño, salud y seguridad de los trabajadores.
Las principales características en un ambiente sonoro son:
1. Campo sonoro. Se divide en tres campos:
a) Campo libre. En un espacio libre una fuente sonora irradia ondas esféricas.
b) Campo difuso. Si las ondas sonoras encuentran obstáculos y
se reflejan sobre las paredes.
c) Campo real. Combinación de ambos campos.
2. Potencia acústica. Una fuente sonora irradia una cierta cantidad
de energía o potencia acústica expresada en watts. La intensidad
sonora es el flujo de energía media que atraviesa 1 m2 de superficie
perpendicular a él en 1 s, y se expresa en W/m2.
3. Periodo de frecuencia y longitud de onda:
a) El periodo es el tiempo necesario para llevar a cabo una oscilación completa o ciclo.
b) La frecuencia es una medida inversa al periodo. Corresponde
al número de ciclos por segundo y se expresa en hertz.
c) La longitud de onda es igual al producto de la velocidad por el
periodo, esto es, F V * T.
Depresión Presión
Depresión Presión
Estas características se muestran en la figura 8.8.
4. Presión acústica: el oído humano es sensible a las variaciones de
presión comprendidas entre 0.00002, que corresponden a un ruido
emitido por la caída de una hoja, y 102 Pa para frecuencias entre 16
y 2000 Hz. Las presiones que sobrepasan 102 Pa provocan daños
irreversibles en el oído. Para establecer comparaciones prácticas,
FIGURA 8.8
Amplitud (A)
Tiempo
Periodo (T)
Longitud de onda (x)
Distancia
204
Capítulo 8
Ergonomía
90 dB
1
FIGURA 8.9
Punto fuerte
del sonido
84 dB
74dB
2
3
4
Distancia (metros)
se ha recurrido a una escala logarítmica cuya unidad es el decibel
(dB).
5. Propagación de los sonidos. Si una fuente emite una energía W en
el espacio, esta energía se reparte uniformemente, pero cuanto
más nos alejamos de la fuente, la energía emitida se repartirá sobre
una superficie mucho mayor. Véase la figura 8.9.
Los efectos del ruido más importantes son: molestias; efecto de enmascaramiento, que consiste en que las palabras de una persona no puedan ser
comprendidas por otra, aunque su tono de voz sea de nivel adecuado, y por
último, los efectos patológicos, donde los ruidos pueden provocar lesiones
auditivas, rotura del tímpano e incluso puede afectar al sistema circulatorio, disminuyendo la actividad de los órganos digestivos, acelerando el metabolismo y el ritmo respiratorio.
Existen medios de protección para evitar los daños anteriores, éstos
pueden ser a nivel de máquinas y locales de trabajo, como el encapsulado
de máquinas, aislamiento de máquinas respecto al suelo o el empleo de
paneles absorbentes, o a nivel de oído, como los protectores auditivos, la
construcción de cabinas insonorizadas y la rotación de puestos para disminuir el tiempo de exposición; un ejemplo se aprecia en la figura 8.10.
A pesar de todo, se pueden advertir señales de averías o mal funcionamiento en la maquinaria y equipo de trabajo por el ruido que producen,
resultando útil en algunas situaciones.
Vibraciones: el avance de la tecnología y su intervención en los puestos
de trabajo ha provocado que más trabajadores estén expuestos a vibraciones, las cuales en algunos casos no tienen consecuencias, pero en otros
puede afectar a la salud y capacidad de trabajo de quien se expone a ellas.
Las áreas del cuerpo que generalmente reciben y transmiten las vibraciones son los pies, las manos y la zona de los glúteos, dependiendo de la
actividad que se realice y la posición en que se encuentra el operador. Pocas
205
Antes del tratamiento
8.3 Áreas de la ergonomía
Máquina
Cascos
Material
absorbente
Máquina
Después del tratamiento
Aislante
Paneles
absorbentes
Aislante
FIGURA 8.10
veces los daños producidos a la salud son inmediatos, la exposición prolongada puede causar efectos crónicos que se manifiestan después de un tiempo. Las principales fuentes de vibraciones son los vehículos de transportes
por carretera, aéreos y marítimos, la maquinaria agrícola y de obras públicas y las herramientas manuales.
Cuando el cuerpo humano se encuentra sometido a vibraciones presenta algunas reacciones y campos que pueden afectar el adecuado desempeño, entre los que destacan:
•
•
•
•
El aumento moderado del consumo energético de la frecuencia
cardiaca y respiratoria.
La aparición de reflejos musculares con función de protección, que
contraen a los músculos afectados por las vibraciones y los mantienen así mientras sean sometidos a esta situación.
La dificultad en el control de la vista, reducción en la agudeza y
distorsión del cuadro visual.
La dificultad en la coordinación de los movimientos.
206
Capítulo 8
Ergonomía
FIGURA 8.11
Las vibraciones, además de efectos f ísicos pueden provocar algunos
efectos psicológicos que pueden disminuir la capacidad de trabajo del ser
humano.
Las vibraciones sobre el sistema brazo-mano se presentan con mucha
frecuencia en el ámbito industrial en operaciones donde se utilizan martillos neumáticos, taladros, sierras y otros equipos que transmiten vibraciones al operador, como los mostrados en la figura 8.12.
8.3.5 Ergonomía cognitiva
Es la disciplina científica que estudia los aspectos conductuales y cognitivos de la relación entre el hombre y los elementos f ísicos y sociales del lu-
FIGURA 8.12
8.3 Áreas de la ergonomía
207
TABLA 8.3 Efectos sobre el organismo de acuerdo con la frecuencia de vibraciones
Frecuencia de vibración
Efecto sobre el organismo
Muy baja
<1 Hz
Trastorno en el sistema nervioso central.
Puede producir mareo y vómito.
Baja
1-20 Hz
Hernias, agravan lesiones raquídeas, variación del
ritmo cerebral, dificultades de equilibrio.
Alta
20-1000 Hz
Calambres, trastornos de la sensibilidad, aumento
en la incidencia de enfermedades del estómago.
gar de trabajo (o en general, ambiente), y más concretamente cuando esta
relación está mediada por el uso de máquinas o artefactos.
Los ergonomistas del área cognoscitiva tratan con temas tales como:
•
•
•
•
El proceso de recepción de señales e información, la habilidad para
procesarla y actuar con base en la información obtenida, conocimientos y experiencia previa.
Conocer el número de canales de información que puede atender
el usuario a un mismo tiempo, y cuántas tareas puede desarrollar
simultáneamente.
Diseño de tableros de señalización y control para la interacción
hombre-máquina, que representan el medio de intercambio de información entre ambas partes; su diseño puede facilitar o incrementar la dificultad de la tarea y la posibilidad de cometer algún
error.
Diseño e implementación de sistemas de realidad virtual y reconocimiento de voz en los controles de máquinas y procesos.
Esta área de la ergonomía tiene gran aplicación en el diseño y evaluación de software, tableros de control y material didáctico, como los mostrados en la figura 8.13.
La ergonomía adquirió fuerza al conjuntar el trabajo de especialistas en
las áreas de ingeniería, medicina y psicología, principalmente, aunque otras
áreas del conocimiento también han contribuido para enriquecerla. La
contribución de la psicología a la ergonomía se manifiesta en forma más
evidente en el área de la ergonomía cognitiva.
La interacción entre el humano y las máquinas o los sistemas depende
de un intercambio de información en ambas direcciones, es decir, entre el
operador y el sistema. El operador controla las acciones del sistema o de la
máquina por medio de la información que introduce y las acciones que
realiza sobre éste, mientras que el sistema alimenta de cierta información
al usuario por medio de señales, para indicar el estado del proceso o las
condiciones del sistema. De la adecuada recepción e interpretación del
208
Capítulo 8
Ergonomía
FIGURA 8.13
usuario dependerá la toma de decisiones, con el fin de mantener las condiciones o modificarlas para alcanzar el objetivo deseado. La figura 8.14
muestra un esquema de esto.
Por lo general, cuando se diseñan máquinas o sistemas se hacen modelos muy explícitos y detallados para su construcción, funcionamiento, precisión y comportamiento, pero casi nunca se desarrollan modelos semejantes sobre el usuario y su comportamiento. En ergonomía, esta tarea
corresponde a los profesionales especializados en psicología o ciencias del
conocimiento, con el fin de desarrollar y aplicar modelos que puedan utilizarse en el diseño de procesos de intercambio de información, buscando
que éstos sean óptimos, adecuados y compatibles con el usuario.
Los avances en la microelectrónica, la automatización y la tecnología
de la información han provocado importantes cambios en los requerimientos de muchos puestos de trabajo. Antes, la mayoría de las actividades dependía de la habilidad y capacidad f ísica del operador, ahora se ha incrementado la dependencia en la percepción y procesamiento de señales
Usuario
Intercambio de información
Máquinas
Sistemas
Toma de
decisiones
Interpretación
FIGURA 8.14 Señales: estado del proceso e información del sistema
8.3 Áreas de la ergonomía
209
analógicas y digitales para el control de las actividades y los procesos; además, depende en mayor medida de los conocimientos previamente adquiridos y el entrenamiento del operador para actuar en diversas situaciones.
En la medida que se desarrolla la tecnología, las tareas para el operador se tornan más abstractas e indirectas, con un mayor énfasis en el uso
y manipulación de símbolos. Este avance de la tecnología y la intervención de las computadoras ha presentado ventajas en los procesos industriales y en la vida cotidiana, pero no ha estado libre de problemas, ya que,
por lo general, cuando se presenta una tecnología diferente al esquema
conocido por el usuario se requiere de cierta capacitación y adaptación
para el cambio.
Con este cambio en la tecnología y la interacción hombre-máquina es
más apropiado considerar al operador como alguien que resuelve problemas y toma decisiones, y no como un simple componente del sistema. Esta
situación ha presentado la necesidad de medir la carga mental que tiene el
operador por la actividad que realiza.
Carga mental: la carga mental está fundamentalmente referida a la proporción de la capacidad limitada del operador que se requiere para ejecutar
una tarea determinada, y ha llegado a ser un importante factor a considerar
en el diseño y evaluación de sistemas de trabajo.
La medición de la carga mental resulta útil para comparar métodos
alternativos o diseños, evaluar prototipos, identificar aspectos estresantes
del trabajo y para evaluar el desempeño del operador; sin embargo, esta
medición no es directamente observable, por lo que se han desarrollado
métodos indirectos para poder realizarla, basados en respuestas fisiológicas, psicológicas o en la evaluación del desempeño de la tarea principal, a
través de medir el error cometido.
Interfaces de comunicación: el diseño de la interfaz es el elemento decisivo para poder usar el sistema. El que un instrumento de software sea utilizable depende de la corrección del modelo mental que elabora el usuario
durante su interacción con el sistema. Dicho modelo se forma en gran parte a través de la interpretación de las acciones que llevan a cabo el sistema
y su estructura visible, es decir, a través del esquema de su interfaz.
Para diseñar una interfaz que pueda inducir en la mente del usuario un
modelo correcto del sistema, deberá adoptarse un enfoque orientado al
usuario. El diseño orientado al usuario consta principalmente de tres elementos:
1. Los usuarios (teletrabajadores) deben participar en todas las etapas del proceso de diseño.
2. El proceso de diseño se centra en la actividad laboral para la que se
utilizará el sistema, y no en las posibilidades tecnológicas.
3. Deben preverse los ciclos: análisis de la actividad laboral-proyectoprototipo-evaluación.
210
Capítulo 8
Ergonomía
Percepción visual: la percepción visual depende de la actitud genérica del
sujeto, del objeto a ver y del escenario visual en el que se sitúa el objeto.
Las características de la percepción visual se podrían resumir en:
1. Involuntaria: la percepción visual es automática y no requiere volición.
2. Variabilidad: dos estímulos visuales idénticos se perciben con intensidad variable en función del estado psicofísico del sujeto (atención, fatiga, estrés, etc.).
3. Educable: la formación y la experiencia mejoran la capacidad perceptiva y, sobre todo, la rapidez de respuesta frente al estímulo.
Los campos de color influyen decisivamente en el centrado del campo
visual para una percepción adecuada.
Psicología del color: la cromoterapia nos enseña a utilizar la proyección
de luz de diferentes colores directamente sobre el cuerpo humano, obteniendo diversas reacciones, como relajamiento, activación, fortalecimiento, desbloqueo, entre otras.
El rojo tiene una poderosa acción estimulante sobre el estado de ánimo
del ser humano, por lo que debe ser usado con cautela. En áreas muy extensas puede ser opresivo e irritante; sin embargo, usado en forma adecuada
tiende a dar vida y alegría a las superficies, causando la sensación de aumento de volumen y temperatura de los ambientes.
El verde tiene un efecto calmante y relajante, usado en exceso torna
los ambientes monótonos. Físicamente causa la impresión de liviano y distante.
El azul tiene un efecto calmante y es usado en ambientes para reposar;
si las áreas son muy extensas tornan los ambientes fríos y vacíos. Físicamente causa la ilusión que los ambientes son frescos y da sensación de distante.
El amarillo estimula el sistema nervioso central e induce a la jovialidad;
por ser un color de alta luminosidad es usado con ventaja en ambientes con
poca luz natural y para señalizaciones. Físicamente causa la sensación de
aumento de temperatura y de volumen de los ambientes.
El naranja es estimulante y provoca bienestar, alegrando los ambientes
si es usado en pequeñas áreas. Usado en exceso se torna irritante. La sensación f ísica que provoca es aumento de la temperatura y volumen de los
ambientes.
El blanco es estimulante y alegre, aclara los ambientes; usado en exceso
provoca la sensación de cansancio a la vista. Físicamente da la ilusión de
aumento de volumen de los ambientes.
El negro es un color que normalmente se usa en combinaciones con
otros colores. Usado solo, da la sensación de aumento de temperatura y
opresión y disminución del volumen de los ambientes.
8.3 Áreas de la ergonomía
211
8.3.6 Ergonomía de diseño y evaluación
Conocer los límites f ísicos del cuerpo humano tiene una aplicación de gran
utilidad práctica para la ergonomía, pues sirve como guía en el diseño y la
evaluación de tareas y actividades; en el diseño de estaciones de trabajo,
mobiliario, herramientas y utensilios, así como el descanso requerido, de
acuerdo con el tiempo y tipo de actividad que se realiza.
El objetivo del diseño en la ergonomía es prevenir y/o eliminar situaciones que pongan en riesgo la seguridad del trabajo mediante la verificación y/o instalación de reglamentos, procedimientos de operación y dispositivos adecuados.
Los ergonomistas de diseño se encargan de la participación durante el
diseño y la evaluación de equipos, sistemas y espacios de trabajo, utilizando
como base conceptos y datos obtenidos en mediciones que se obtienen a
través de mediciones antropométricas, evaluaciones biomecánicas, características sociológicas y costumbres de la población a la que está dirigido el
diseño.
Para que la mayoría de los usuarios pueda efectuar su trabajo en forma
segura, eficiente y aumentando su productividad, es necesario considerar
las diferencias entre los usuarios en cuanto a su tamaño, distancias de alcance, fuerza y capacidad visual.
Al estar expuesto a deficiencias, tanto del lugar de trabajo como del
equipo, se pueden provocar microtraumatismos repetitivos, lesiones, aparición o agravación de una LER, problemas de circulación o algún otro tipo
de problema.
Sistemas hipermedia: consisten en la unión del hipertexto y multimedia, son utilizados para el control de procesos. Su funcionamiento es a base
de ordenadores industriales y sistemas SCADA (supervisores para que la
información que el usuario necesite esté a la mano).
Diseño de puestos de trabajo: un puesto de trabajo es el lugar que un
trabajador ocupa cuando desempeña una tarea. Algunos ejemplos son las
cabinas o mesas de trabajo donde se manejan las máquinas (como la mostrada en la figura 8.15), se ensamblan piezas o se efectúan inspecciones, las
FIGURA 8.15
212
Capítulo 8
Ergonomía
mesas de trabajo desde la que se manejan las computadoras e inclusive
las consolas de control.
Un criterio que se utiliza para evaluar el diseño del espacio de trabajo
es el intervalo de diferentes posiciones estables que pueden ser adoptadas
y las diferentes superficies que proveen un soporte adecuado al operador.
Para evaluar la tarea se considera el tiempo que se requiere mantener una
sola postura, el esfuerzo muscular requerido y los ligamentos que se mantienen bajo tensión.
Los factores que influyen para el diseño de un puesto de trabajo son: las
tareas, herramientas, medio ambiente (iluminación, ruido, temperatura),
mobiliario, estaciones de trabajo, antropometría y las pantallas de visualización de datos. Un buen diseño del mismo permite cambiar de postura,
realizar distintas tareas, dejar cierta latitud para adoptar decisiones, darle
sensación de utilidad, facilitar la formación adecuada y los horarios de trabajo y descanso, así como los periodos de ajuste.
En el diseño del área de trabajo influyen los ciclos de trabajo y el manejo de materiales y levantamientos.
Diseñar espacios de trabajo donde se consideran los rasgos y capacidades de la mayor parte de los usuarios ayuda a reducir el esfuerzo y estrés
necesario en los trabajadores, que resulta en un trabajo más eficiente y productivo.
El diseño de equipo y herramientas es uno de los aspectos más influyentes en la seguridad, eficiencia y productividad del trabajador. En las últimas décadas se han dado cambios importantes en los equipos y sistemas
de manufactura, con el fin de hacer más eficientes los sistemas de producción, pero esto ha provocado que también se vuelvan más complejos.
Un problema que se ha presentado con estos cambios es que muchos
espacios de trabajo y máquinas que han sido utilizadas por bastante tiempo, no reciben la modificación y rediseño necesarios, por lo que las deficiencias podrían aumentar o acumularse. Para que un sistema funcione
adecuadamente, no basta con que las máquinas operen de forma eficiente,
es necesario que sean utilizables a pesar de las limitaciones del operador.
El buen diseño, tanto en un puesto de trabajo como en su área, permite
obtener como ganancia una disminución en costos médicos asociados, reducción de días perdidos o no laborados y disminución de gastos médicos
directos. Así mismo, existen beneficios para el personal, como son la eliminación de “estresores” ergonómicos, dando como resultado un mejoramiento tanto de la calidad como del ambiente laboral, lo que le permite al
operador tener más control sobre el proceso y mantenerse enfocado en el
trabajo, logrando un incremento de la productividad y la calidad.
En forma general, se puede decir que el desempeño de un operador es
mejor cuando se libera de elementos distractores que compiten por su
atención con la tarea principal, ya que cuando se requiere dedicar parte del
esfuerzo mental o f ísico para manejar las distracciones ambientales, hay
menos energía disponible para el trabajo productivo.
8.3 Áreas de la ergonomía
213
Otro aspecto importante en el área del diseño es el rediseño de los
puestos de trabajo para los operadores que se reincorporan a la actividad
después de haber sufrido alguna lesión. Convendría revisar las causas que
provocaron el daño para modificarlas, y adaptar el puesto y la tarea para
que el operador no vuelva a sufrir por el mismo problema, inclusive para que
no afecte a los otros operadores.
8.3.7 Ergonomía de necesidades específicas
Área de la ergonomía que se enfoca en el diseño y desarrollo de equipo para
personas que presentan alguna discapacidad f ísica (actualmente llamadas personas con capacidades diferentes), adultos mayores, mujeres embarazadas, para la población infantil y escolar, y el diseño de microambientes
autónomos. La diferencia principal que presentan estos grupos específicos
radica en que sus miembros no pueden tratarse en forma “general”; esto
involucra las aptitudes y habilidades, ya que las características y condiciones para cada uno son diferentes, y en muchas ocasiones no presentan una
distribución normal, como la población en general, o son diseños que se
hacen para una situación única y una persona específica, como si fuera un
traje hecho a la medida.
Los diseños se elaboran para situaciones únicas o usuarios específicos,
es decir, para cualquier grupo que se salga de las medidas generales.
Se interviene en el desarrollo del equipo para personas con alguna discapacidad f ísica, como pueden ser el diseño y evaluación de sillas de ruedas, muletas o bastones, y en la adaptación y adecuación de líneas de producción y puestos de trabajo, instalaciones de oficinas y casas, así como los
medios de transporte. La figura 8.16 ilustra algunos de estos ejemplos.
En realidad no existe una diferenciación entre hombres y mujeres, es
decir, no se tratan como grupos específicos por separado.
Accesibilidad: la accesibilidad indica que algo es de fácil trato, inteligible y comprensible.
FIGURA 8.16
214
Capítulo 8
Ergonomía
La igualdad de oportunidades para todas las personas, el derecho a
acceder, utilizar y transitar en los espacios públicos, es un principio que en
las sociedades está cada vez más presente, aunque todavía nos encontramos con situaciones que limitan las oportunidades de participar en la vida
de la comunidad.
Las personas más afectadas por estas barreras son aquellas que presentan alguna disminución en sus capacidades físicas, intelectuales, sensoriales, motoras o intelectuales, de forma permanente o temporal; sin
embargo, también afectan a grupos de la sociedad, como los ancianos,
niños, analfabetas, o personas que por circunstancias transitorias encuentran dificultades para disponer del total de sus capacidades, como
pueden ser mujeres embarazadas, personas que en algún momento cargan
niños o transportan bultos e incluso extranjeros que desconocen el idioma local.
El 20 de noviembre de 1993 la Asamblea General de las Naciones Unidas aprobó las “Normas uniformes sobre la igualdad de oportunidades para
las personas con discapacidad”, en las que indican que los Estados deben
establecer programas de acción para el entorno f ísico, el acceso a la información y a la comunicación debe ser accesible para las personas con discapacidad de cualquier índole.
Existen diferentes tipos de capacidad, entre los principales están los
auditivos, el visual, el oral, de movimiento y mental.
Barreras arquitectónicas: las barreras arquitectónicas interrumpen o
impiden que se desarrollen las actividades cotidianas de las personas con
discapacidades f ísicas en todo el mundo, presentando obstáculos para su
acceso a sitios de trabajo, educativos, culturales y de esparcimiento, medios
de transporte, entre otros.
Es necesario considerar el diseño y la planeación en forma conjunta
para que el entorno f ísico pueda ser apto para toda persona y que se puedan utilizar cómoda y adecuadamente.
La falta de rampas para sillas de ruedas, falta de elevadores en construcciones públicas, puertas de ancho inapropiado, obras y trabajos sin delimitar, toldos bajos, son algunas barreras arquitectónicas que se encuentran comúnmente en las zonas urbanas, edificios y centros de trabajo que
impiden o complican la accesibilidad a personas con diferentes discapacidades.
Existen barreras que afectan el acceso y tránsito de personas con discapacidad, y no necesariamente son arquitectónicas, como la obstrucción de
rampas en las aceras al estacionar automóviles, o el estacionar motos o
automóviles sobre las banquetas, lo que dificulta la autonomía de estos
grupos.
Acceso a la información: los obstáculos para el acceso de información
representan un problema para las personas con deficiencias visuales, hipoacústicas o con problemas de aprendizaje.
8.3 Áreas de la ergonomía
215
El acceso a la información implica que la señalización de servicios tales
como el transporte público, servicios de información o emergencia sea suficiente y clara para cualquier persona.
El desarrollo de tecnologías de telecomunicaciones e internet ha supuesto un cambio radical en la facilidad de difusión y disponibilidad de
información, que pueden ser aprovechadas para permitir el acceso a personas con alguna discapacidad.
Para alcanzar soluciones de diseño seguras y económicamente razonables se deben analizar desde las primeras fases de planeación y diseño, ya
que al centrarse en las características, habilidades y limitaciones de los
usuarios, se pueden identificar los problemas desde el inicio, evitando o
reduciendo el tiempo y costo de trabajos de rediseño posterior.
Mujeres embarazadas: el principal cambio en este grupo es el tamaño,
que se comienza a notar a partir del cuarto mes de embarazo; se denotan
incrementos en la circunferencia de 27% de la cintura, 6% de pecho y 4% de
la cadera, así como un incremento de 17% en el peso.
Los principales cambios que se notan son:
•
•
•
•
•
Distribución de la masa.
Centro de gravedad del cuerpo.
Movilidad, lo que repercute en disminución del área de trabajo con
las manos.
Humor, se nota menos vigor, energía y estado de alerta.
Desempeño, disminución considerable en la eficiencia.
Actividades que presentan mayor dificultad:
•
•
•
•
•
•
•
Levantar un objeto del suelo.
Trabajar en un escritorio.
Subir escaleras.
Manejar un automóvil.
Subirse y bajarse de un automóvil u otro tipo de transporte.
Agarrar objetos de una repisa elevada.
Meterse y salirse de la cama.
Las principales consideraciones que se deben llevar a cabo en el diseño
para estas necesidades son los cambios en las dimensiones. Deben ser trabajos que requieran el mínimo esfuerzo, existir asientos ajustables y áreas
de descanso, así como más espacio del habitual.
Población infantil: esta población es importante porque generalmente
no se consideran sus características f ísicas para el diseño de mobiliario, ya
sea en las escuelas, restaurantes e incluso el mismo hogar, y es una de las
etapas más importantes para el adecuado desarrollo f ísico.
Se debe tomar en cuenta seguridad especial, por ejemplo en los asientos
de los coches; es decir, mobiliario especial que varíe conforme a la media
antropométrica de las diferentes edades, como se ilustra en la figura 8.17.
216
Capítulo 8
Ergonomía
9 meses
6 meses
3 meses
FIGURA 8.17
Para el diseño en esta área se toman en cuenta niños con y sin discapacidad f ísica, sin perder de vista que el tamaño de un niño cambia, esto es un
factor importante en el diseño.
Ancianos: los ancianos son una población que presenta capacidades reducidas, tanto en la fuerza como en resistencia y agudeza de los sentidos,
por lo que las consideraciones en el diseño deben ser similares al del diseño
para discapacitados (véase figura 8.18).
8.3.8 Ergonomía preventiva
Es el área que trabaja en íntima relación con las disciplinas encargadas de
la seguridad e higiene en los puestos de trabajo. Dentro de sus principales
actividades se encuentra el estudio y análisis de las condiciones de seguridad, salud y confort laboral.
Los especialistas en el área de ergonomía preventiva colaboran con
otras especialidades de la ergonomía para el análisis de las tareas, como es
FIGURA 8.18
8.3 Áreas de la ergonomía
217
el caso de la biomecánica y fisiología para la evaluación del esfuerzo y la
fatiga muscular, determinación del tiempo de trabajo y descanso, por mencionar algunos.
El objetivo de los ergonomistas en la industria es reducir la siniestralidad laboral a través del análisis y la evaluación de todos los factores que
causan riesgo en la empresa. Buscan proveer la máxima productividad con
el costo mínimo; sin embargo, cada uno de los especialistas considera diferentes factores para lograr esto, ya que el “costo” también debe considerar
factores fisiológicos y psicológicos que afectan al operador.
La prevención de riesgos laborales se puede resumir en tres conceptos:
•
•
•
Conocer los riesgos que existen en cada puesto de trabajo.
Eliminar los riesgos que se pueden eliminar (los que no se pueden
eliminar deben estar controlados).
La seguridad y la salud de los trabajadores es la finalidad última de
las obligaciones que establece la Ley de Prevención de Riesgos Laborales (LPRL).
Las obligaciones más relevantes de los empresarios con sus trabajadores son:
1. Facilitar equipos de trabajo y medios de protección.
2. Fomentar la información, consulta y participación de los trabajadores y sus representantes.
3. Formar a los trabajadores.
4. Proporcionar protección especial a los trabajadores sensibles a determinados riesgos, a los adultos mayores, mujeres embarazadas y
menores.
5. Vigilar la salud.
Algunas de las situaciones que cuidan los ergonomistas del área preventiva cuando colaboran con ingenieros y médicos industriales, así como
los especialistas del área de salud y seguridad laboral, son:
Aplicación de datos antropométricos: la desproporción del tamaño y capacidad f ísica entre el operador y el sitio de trabajo es una de las causas más
comunes para provocar el estrés f ísico en los operadores.
Mejoría del diseño de equipo: la operación de maquinaria es más productiva y menos estresante cuando la máquina y el operador se dividen el
trabajo, la máquina enfocándose en efectuar la actividad f ísica y el operador en pensar.
Adecuada iluminación: el nivel de iluminación puede provocar una sensación de cansancio provocada por fatiga visual. La fatiga visual es el resultado de la tensión visual debido al acomodo rápido, campo visual extendido
a cortas distancias focales, resplandor directo o reflejo, o lentes correctivos
mal ajustados. Estos problemas se relacionan con el uso de terminales de
218
Capítulo 8
Ergonomía
No pisar
Precaución: le puede herir el pie
FIGURA 8.19
video de contraste reducido o centelleo, y con el desarrollo de actividades
relacionadas con la manipulación de piezas pequeñas o de detalle.
Los síntomas oculares reducen la eficiencia de trabajo, las posturas inadecuadas y estáticas prolongadas de la cabeza y los hombros provocadas
por una mala iluminación pueden agravar problemas posturales, lesiones
f ísicas y microtraumatismos repetitivos.
Adecuada señalización: cuando las señales no son adecuadamente entendidas y procesadas por el operador, cuando son confusas, desconocidas
o se presenta ruido y distorsión entre ellas o por factores ambientales, existe una mayor probabilidad que el operador no actúe conforme a lo deseado
o lo lleve a cabo en un proceso más lento; así mismo, incrementa el riesgo
de accidentes y lesiones, ya que el operador no está prevenido de la actividad que realiza. Algunos ejemplos de señalizaciones se ilustran en la figura 8.19.
Diseño y selección de equipo y de protección personal: la selección de los
materiales y diseños de equipos de protección personal se realiza considerando los factores ambientales y externos a la persona de los cuales se le
desea proteger. Algunos ejemplos de equipos de protección se muestran en
la figura 8.20.
Resulta dif ícil cuantificar en términos económicos los costos y beneficios que aporta la intervención y aplicación de la ergonomía en un ambiente industrial o de servicios, pero si se incorporan los conceptos de la ergonomía desde el diseño de los puestos de trabajo y las actividades, se puede
disminuir considerablemente la posibilidad de que ocurran este tipo de
problemas, con lo que se asegura una mayor eficiencia en la producción, se
obtiene una actividad más eficaz del operador y, al mismo tiempo, se dan
mejores condiciones de trabajo para el empleado.
El campo de la aplicación de la ergonomía no se limita al área industrial, ya que también participa en otras actividades humanas, como el
transporte, recreación y la práctica deportiva, e incluso en aspectos como
el diseño adecuado de espacios y mobiliario para los servicios de la casa
habitación y la oficina.
8.3 Áreas de la ergonomía
219
FIGURA 8.20
Evaluación de riesgos: la acción preventiva se planificará a partir de una
evaluación inicial de riesgos que se realizará, con carácter general, teniendo en cuenta la naturaleza de la actividad. Después de la evaluación de
riesgos se puede hacer la planificación, pero no antes.
Planificación preventiva: el objetivo de la planificación de la actividad
preventiva es establecer el conjunto de actuaciones a desarrollar en un periodo anual, de manera que el empresario pueda cumplir con los deberes y
obligaciones exigibles en materia de seguridad y salud. Esta planificación
consta de cuatro temas:
1. Declaración de la política de prevención.
2. Organización que se dispone para llevar a cabo las actividades preventivas.
3. Evaluación continua de riesgos.
4. Planificación de la actividad preventiva en sí.
La planificación de la actividad preventiva debe contener siempre y como mínimo los siguientes aspectos:
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
Seguridad integrada.
Organización de la actuación preventiva.
Control de las fuentes de riesgo, incluidos los controles periódicos.
Información, participación y consulta de los trabajadores.
Formación.
Asignación de trabajadores e información de los riesgos.
Personal especialmente protegido.
Vigilancia de la salud.
Medidas de emergencia.
Protección personal.
220
Capítulo 8
Ergonomía
Dichas actuaciones se deben diseñar tomando en cuenta la modalidad
organizativa elegida por la empresa para el desarrollo de la actividad preventiva, tipo de actividad, recursos y medios disponibles y las necesidades
detectadas en la evaluación inicial de riesgos.
Modalidades de la organización de la prevención en la empresa:
existe un reglamento de servicios de prevención, que en sus artículos 10 al
22 establece las diferentes modalidades de organización de los recursos humanos necesarias para el desarrollo de las actividades preventivas.
El artículo 10 menciona que la empresa está obligada a elegir uno de los
modelos organizativos en función de dos parámetros: número de trabajadores de la empresa y grado de peligrosidad de las actividades.
Debe tenerse en cuenta que se deben cubrir todas las disciplinas preventivas, que son las siguientes:
1. Vigilancia de salud (medicina en el trabajo).
2. Seguridad en el trabajo (conjunto de técnicas de prevención de accidentes).
3. Higiene industrial (conjunto de técnicas de prevención de enfermedades profesionales).
4. Ergonomía y psicosociología aplicada (conjunto de técnicas para la
adaptación del trabajo a la persona).
El artículo 11 (asunción por el propio empresario) señala que en este
modelo organizativo es el propio empresario el responsable de llevar a cabo
la actividad preventiva en la empresa. Se caracteriza por los siguientes puntos:
1. Que la empresa tenga menos de seis trabajadores (de uno a cinco).
2. El empresario debe poseer la información suficiente en materia
preventiva, lo cual se puede lograr asistiendo a cursos específicos.
3. El empresario debe desarrollar su actividad habitualmente en el
centro de trabajo de la empresa y dedicar el tiempo suficiente al
desarrollo de la actividad preventiva.
4. La vigilancia de la salud de los trabajadores, así como aquellas
otras actividades preventivas no asumidas personalmente por el
empresario, deberán cubrirse mediante el recurso a alguna de las
restantes modalidades de organización preventiva previstas en el
Reglamento.
5. La empresa deberá auditar su sistema preventivo cada cinco años.
Si los riesgos de la misma se encuentran bajo control, puede notificar a la administración laboral la no necesidad de realizar la auditoría.
El artículo 12 (designación de trabajadores) de este modelo organizativo determina que el empresario debe designar uno o más trabajadores co-
8.3 Áreas de la ergonomía
221
mo responsables de llevar a cabo la actividad preventiva en la empresa.
Esta modalidad se caracteriza por los siguientes puntos:
1. El número de estos trabajadores depende de la cantidad de empleados en la plantilla, la actividad de la empresa y su accidentalidad, y
que el tiempo que deban dedicar a esta actividad deberá estar en
relación con las funciones que tengan encomendadas.
2. El/los trabajador/es designado/s debe/n poseer la formación suficiente en materia preventiva.
3. Los trabajadores designados deberán dedicar el tiempo suficiente
para el correcto desarrollo de la actividad preventiva.
4. Las actividades que no puedan desarrollar estos trabajadores designados, deberán ser llevadas a cabo a través de uno o varios
servicios de prevención ajenos.
5. La empresa deberá auditar su sistema preventivo cada cinco años,
contratando una empresa auditora acreditada por la administración laboral para tal efecto.
El artículo 14 trata sobre la constitución de un servicio de prevención
propio y las condiciones para constituir este modelo son:
1. Que se trate de una empresa que cuente con más de 500 trabajadores.
2. Cualquier empresa, por la peligrosidad de la actividad que lleva a
cabo y por la frecuencia y gravedad de la accidentalidad, debe ser
obligada a ello por decisión de la autoridad laboral, previo informe
de la inspección de trabajo y de los órganos técnicos de la comunidad autónoma respectiva.
Esta modalidad se caracteriza por:
1. El servicio de prevención propio debe cubrir, como mínimo, dos de
estas especialidades: seguridad en el trabajo, higiene industrial,
medicina del trabajo, y ergonomía y psicología.
2. Los expertos deberán dedicar su actividad en la empresa de forma
exclusiva a la prevención.
3. En caso de ser necesario la empresa podrá designar más trabajadores, sin obligación de que dispongan de titulación de nivel superior.
4. El servicio de prevención propio deberá elaborar y mantener a disposición de la autoridad laboral la memoria y la programación
anual de su actividad.
5. El servicio de prevención propio puede compartirse con empresas
de una misma área geográfica, de un mismo sector productivo o de
un mismo grupo empresarial, mediante la constitución, entre todas ellas, de un servicio de prevención mancomunado (Art. 21).
222
Capítulo 8
Ergonomía
El artículo 16 habla de la concertación con un servicio de prevención
ajeno. Se debe recurrir a este tipo de modelo organizativo cuando:
1. La designación de uno o varios trabajadores sea insuficiente para
llevar a cabo la actividad preventiva en la empresa, y no se den las
circunstancias para estar obligado a constituir un servicio de prevención propio.
2. Designado uno o varios trabajadores, o constituido un servicio de
prevención propio, queden actividades preventivas no cubiertas y
tengan que concertarse con un servicio de prevención ajeno.
8.4 Ergonomía de diseño centrado en el usuario
Es un método iterativo donde es importante involucrar de forma activa al
usuario, y el entendimiento claro de los requerimientos de la tarea y el
usuario. Puede ser aplicado a cualquier sistema con el que el usuario tenga
que interactuar, incluyendo el hardware, software y los manuales.
De acuerdo con la norma ISO 13407, la incorporación del diseño centrado en el usuario se caracteriza por involucrar de manera activa a los usuarios, entendiendo claramente los requerimientos del usuario y la tarea, por
una apropiada distribución de las funciones entre los usuarios y la tecnología, la iteración de las soluciones de diseño y un diseño multidisciplinario.
Para poder entender y definir el contexto de uso, las tareas y la forma
en que van a trabajar los usuarios en el futuro con el producto o sistema, es
necesario involucrar al usuario. El objetivo de la tecnología es asistir al
usuario a desarrollar las tareas seleccionadas, por lo que se deben identificar todas las tareas, la forma en que serán desarrolladas y cómo serán repartidas entre el usuario y la tecnología en el diseño.
Una importante fuente de información en el diseño interactivo es la
retroalimentación de los usuarios, ya que, por lo general, como no es posible definir exactamente las necesidades del usuario al inicio del proceso, se
desconoce la parte de lo que el usuario quiere y lo que la tecnología es capaz de hacer. La situación actual del trabajo es el punto de inicio para el
diseño, por lo que el nuevo sistema puede cambiar el contexto de uso, los
requerimientos tecnológicos y del usuario, de esta manera el diseño puede
ser refinado.
Se requieren conjuntar una variedad de habilidades y conocimientos
dependiendo de la naturaleza del sistema a desarrollar, esto lleva a que el
equipo multidisciplinario incluya usuarios finales, miembros de la gerencia, expertos en la aplicación, diseñadores del sistema, expertos en mercadotecnia, diseñadores gráficos, especialistas en factores humanos y personal de capacitación. El diseñador sólo puede representar al usuario cuando
el diseño sea desarrollado para su uso personal.
Cada uno de los participantes debe tener su papel y responsabilidad
bien definidos en el proyecto, ya que éste debe incluir manuales, capacita-
8.4 Ergonomía de diseño centrado en el usuario
223
ción, mantenimiento, soporte técnico, empaque y mercadotecnia, por lo
que es necesario definir los requerimientos iniciales del usuario, ilustrar
decisiones de diseño, hacer prototipos, evaluar durante la fase de análisis y
diseño, analizar el resultado de la evaluación y realizar pruebas de campo.
Se considera conveniente que una sola persona sea responsable de las actividades relacionadas con el diseño centrado en el usuario.
De acuerdo con la norma ISO 13407, el proceso de diseño y desarrollo
de un proyecto centrado en el usuario debe documentar y especificar los
procedimientos utilizados, la información recolectada y el uso que se dio a
los resultados obtenidos. Las nuevas ideas que surjan durante el desarrollo
deben registrarse, incluso si no se planea aplicarlas, así como registrar si un
requerimiento es descartado.
Es importante considerar un lenguaje común entre los diseñadores y
los usuarios, tanto para el producto como para las diferentes etapas de desarrollo, cuando se requiere involucrar a los usuarios. Los requerimientos
del usuario no pueden utilizarse o aplicarse al principio del proyecto, por lo
que deben ser considerados y aplicados durante el desarrollo. Cada requerimiento debe ser sustentado con información de su precedencia.
Los aspectos que se deben definir cuando se planea un proyecto bajo la
norma ISO 13407 son los siguientes.
1. Debe haber actividades para:
•
•
•
•
Definir el contexto de uso.
Definir los requerimientos del usuario y de la organización.
Producir prototipos.
Evaluar diseños.
2. Integrar las actividades con las demás actividades de diseño, como
análisis, diseño y pruebas.
3. Identificar a las personas u organizaciones responsables de cada
una de las actividades.
4. Definir procedimientos del análisis de los resultados de la evaluación y retroalimentación de los resultados de diseño.
5. Definir los plazos, incluyendo los que permitan la retroalimentación y posibles cambios en el diseño.
La norma ISO 13407 también proporciona una guía de actividades en
el proceso del diseño centrado en el usuario para sistemas interactivos, que
son las siguientes:
•
•
•
•
Entender y especificar el contexto de uso.
Especificar los requerimientos de la organización y del usuario.
Proceder a diseñar soluciones.
Evaluar los diseños con respecto a dichos requerimientos.
224
Capítulo 8
Ergonomía
Las pruebas de los expertos y pruebas en el laboratorio siempre deben
preceder a las pruebas de campo. En las pruebas de laboratorio se detectan
los principales problemas de uso, permitiendo que las de campo se enfoquen a la información como utilidad del sistema en uso real y continuo.
EJERCICIOS PROPUESTOS
1. ¿Qué es la ergonomía? ¿Qué disciplinas involucra? ¿Cuáles son sus objetivos?
2. Describa el esquema de interacción humano-máquinas, ¿por qué es importante?
3. Del salón de clases, observe y comente qué condiciones físicas (ambiente térmico, nivel de
ruido, nivel de iluminación, vibraciones) se encuentran en las condiciones adecuadas, cuáles cambiaría y por qué.
4. Haga un estudio ergonómico en su propio salón de clases siguiendo los pasos siguientes:
a) Decida con sus compañeros de clase qué producto, máquina u objeto van a diseñar.
b) Realice todas las mediciones necesarias de la población o muestra dentro del salón (todos sus compañeros de clase) dependiendo de su respuesta al inciso a, esto es: altura de
la persona (de pie o sentada), ancho, alcance de brazos, alcance de piernas, etc. Registre
todas estas medidas en una tabla.
c) Con los datos que obtuvo en el inciso b, calcule la media y la desviación estándar de su
muestra.
d) Elija el percentil que quiere aplicar de acuerdo con lo aprendido en el capítulo y realice
los cálculos necesarios para llegar a la toma de decisiones, por ejemplo: la silla debe tener estas medidas, el tablero de la máquina debe tener este alcance para que cierto
porcentaje de la población la pueda utilizar fácilmente.
e) Concluya acerca de los resultados obtenidos con su estudio.
Referencias
Budnick, P. Ph.D., CPE. (2004). Ergoweb. What is
Ergonomics Really About?
Chiner Dasí, M., Diego Más, J. A. y Alcalde Marzal, J.
(2004). Laboratorio de ergonomía, Alfaomega,
España.
Flores, C. (2001). Ergonomía para el diseño, Designio, México.
Instituto Nacional de Seguridad e Higiene en el
Trabajo. (http://www.insht.es/).
Kroemer-Elbert, K. E., Kroemer, K. H. E y Kroemer,
H. (2000). Ergonomics: How to Design for Ease
and Efficiency, 2a. Ed. Prentice Hall.
Michael, R. (2004). Ergoweb. Ergonomics as a Global
Initiative: Presence and Purpose.
Mondelo, P. R., Gregori Torada, E. y Barrau Bombardo, P. (2000). Ergonomía 1, 3a. Ed., Alfaomega.
NIOSH: The National Institute for Occupational
Safety and Health. (http://www.niosh.com.my/).
OSHA: Occupational Safety and Health Administration. (http://www.osha.gov).
Sanders, M. S. y McCormick, E. J. (1993). Human
Factors in Engineering and Design,
7a. Ed. McGraw-Hill, Science/Engineering/
Math.
Sociedad de Ergonomistas de México A.C. (http:
//www.semac.org.mx).
Wickens, Ch. D., Gordon, S. E. y Liu, Y. (1998). An
Introduction to Human Factors Engineering.
Addison-Wesley Pub Co.
CAPÍTULO
9
Diseño y desarrollo de
productos: un enfoque CAD
AUTOR:
Dr. Sergio Romero Hernández
9.1 Introducción
9.2 Procesos de desarrollo y organizaciones
9.3 Planeación de productos
9.4 Identificación de necesidades y generación de
especificaciones ingenieriles
9.5 Generación y selección de conceptos: el uso
del CAD
9.6 Pruebas y prototipos mediante CAM
9.7 Estrategias modernas de diseño considerando
PLM
9.1 Introducción
El alto grado de competitividad que existe en la industria hoy en día exige
que las empresas de todo el mundo cambien su perspectiva global de cómo
hacer las cosas. No es suficiente con crear un producto o servicio innovador que capte la atención del mercado por un momento; las condiciones
actuales de alta competencia y globalización obligan a las empresas a realizar operaciones cada vez más eficientes y menos costosas y a buscar una
ventaja competitiva que destaque en el mercado. Para lograr tal objetivo,
una estrategia muy eficaz que pueden adoptar todo tipo de organizaciones
es optimizar sus etapas de diseño, creación del producto o servicio que
ofrecerán, reduciendo así el tiempo que tarda en salir el producto al mercado y aumentando la rentabilidad.
Específicamente para las empresas que manufacturan un producto, es
imprescindible una etapa de diseño exitosa. Sin embargo, ¿qué es una etapa
de diseño exitosa? Si se considera que el precio del producto está sujeto en
gran medida a las condiciones del mercado y de la competencia, entonces
se debe tornar hacia la reducción de costos en la fabricación del producto
para obtener una mayor utilidad. La mejor medida del éxito de una etapa de
diseño será la reducción en costos que se observe a lo largo del ciclo de vida
del producto.
Capítulo 9
Diseño y desarrollo de productos: un enfoque CAD
Para lograr tal reducción de costos, es necesario tomar en cuenta otros
temas que anticipan el éxito de una etapa de diseño. Se debe analizar, entre
otras cosas, si se cumplen los objetivos estratégicos de la empresa, si el
diseño se obtuvo en un tiempo igual o menor al acostumbrado en el mercado, si el costo de la etapa es bajo, si se están caracterizando de manera
adecuada las necesidades del cliente y del mercado, si se toman en cuenta
consideraciones de manufactura y logística del producto, si se analiza el
impacto ambiental en el ciclo de vida del producto, etcétera.
Es muy importante tomar en cuenta que todas estas mediciones de
éxito o eficiencia solamente son válidas si se ha establecido previamente la
prioridad que tiene cada tema para cada caso en específico; por ejemplo,
para una empresa con una estrategia corporativa que ubica sus productos
como lujosos y de alta calidad, sus temas de mayor interés serán la calidad
y la estética, muchas veces a pesar de un incremento en costos. Por esto, el
desarrollo del diseño de cada producto debe definirse de manera explícita,
jerárquica e individual.
Problemática: actualmente la naturaleza de los mercados de bienes requiere de la rápida y acertada adaptación de productos hacia exigencias de
la cadena de suministro, los clientes y las instancias legislativas que en ciertos casos acotan proyectos. Por esto, es esencial un sistema eficiente en el
diseño y desarrollo de productos que prevea todos estos problemas desde
el inicio. Un diseño que no tome en cuenta tales consideraciones posiblemente tendrá varios problemas en etapas posteriores. En cualquier tipo de
producto, los cambios que se deban efectuar serán más costosos conforme
se avanza en el ciclo de vida del producto, como se muestra en la figura 9.1.
En la figura se puede observar cómo el costo por modificar el diseño
inicial de un producto varía en forma exponencial, dependiendo de la etapa
en que ocurra la modificación, por lo tanto, claramente es más conveniente
realizar los cambios necesarios durante la etapa de diseño, en la que el cosCosto por modificación en diferentes etapas de desarrollo
100
Costo normalizado por
modificación al diseño original
226
$100
80
60
40
20
$1
$10
0
Diseño
Pruebas
FIGURA 9.1 [Ref. Romero-Hernández, S., 2002]
Producción
9.2 Procesos de desarrollo y organizaciones
227
to es unitario. En cambio, si se detecta la necesidad de hacer una modificación en el producto cuando éste ya se encuentra en producción, el costo
será 100 veces mayor.
9.2 Procesos de desarrollo y organizaciones
Un proceso de desarrollo de productos bien definido dentro de una organización es esencial para asegurar la competitividad de las empresas en el
cambiante y dinámico marco global de nuestros días. Algunas de las preguntas que se deben contestar al definir el proceso y la organización son las
siguientes:
•
•
•
•
¿Existe algún proceso de desarrollo estándar que funcione para
cualquier empresa?
¿Cuál es el papel de los expertos provenientes de diferentes áreas
funcionales en el proceso de desarrollo?
¿Qué indicadores pueden usarse para dividir el proceso de desarrollo global en fases?
¿Se debe segmentar la organización de desarrollo en grupos correspondientes a proyectos o con base en sus funciones de desarrollo?
Un proceso de desarrollo de producto puede definirse como la secuencia de pasos o actividades que debe seguir una empresa para concebir, diseñar y comercializar un producto. No debe perderse de vista que varios de
estos pasos o actividades son intelectuales y organizacionales, no necesariamente f ísicas. Un proceso de desarrollo bien definido es de gran utilidad
porque provee:
a) Aseguramiento de la calidad, al establecer las fases que integrarán el proceso y cómo se considerarán satisfechas.
b) Coordinación, ya que un buen proceso de desarrollo actúa como
el plan maestro que define el papel de cada integrante, así como los
canales de intercambio de comunicación entre ellos.
c) Planeación, ya que establece las metas correspondientes a la culminación de cada fase.
d) Administración eficaz, al convertirse en parámetro de comparación con el proceso de desarrollo real, permitiendo así la identificación de problemas.
e) Mejoras, ya que la cuidadosa y precisa documentación del proceso
de desarrollo de una organización permite identificar áreas de
oportunidad.
El proceso de desarrollo debe ser específico del producto que se esté
desarrollando, pero todo proceso debe constituirse genéricamente de seis
fases consecutivas:
228
Capítulo 9
1.
2.
3.
4.
5.
6.
Diseño y desarrollo de productos: un enfoque CAD
Planeación
Desarrollo del concepto
Diseño del sistema-nivel
Diseño de detalle
Pruebas y refinamiento
Escalamiento a producción
Planeación: a esta fase también se le suele denominar fase cero, ya que
precede la aprobación del proyecto y el inicio del proceso de desarrollo;
inicia en la estrategia corporativa e incluye una evaluación de los desarrollos tecnológicos y los objetivos del mercado. El resultado de esta fase es la
declaración de la misión del proyecto, la cual identifica el mercado objetivo, las metas de negocio, las suposiciones y restricciones.
Desarrollo del concepto: en esta fase se identifican las necesidades del
mercado, se generan y evalúan diferentes alternativas conceptuales del producto y se seleccionan algunos conceptos para seguirse desarrollando. En
esta fase se considera como alternativa conceptual una descripción de la
forma, función y características de un producto, que usualmente viene
acompañado de una serie de especificaciones, un análisis de productos de
la competencia y una justificación económica del proyecto.
Diseño del sistema-nivel: esta fase incluye la definición de la arquitectura del producto y su descomposición en subsistemas y componentes. El
esquema final de ensamble para el sistema de producción usualmente se
define en esta etapa. Esta fase provee una descripción geométrica del producto, especificaciones funcionales de cada uno de los subsistemas del mismo y un diagrama de flujo preliminar para el proceso de ensamble final.
Diseño de detalle: incluye una completa especificación de la geometría,
materiales y tolerancias de todas las partes únicas del producto y la identificación de las partes comerciales que pueden ser adquiridas de proveedores. Se planifica el proceso y se diseñan los herramentales necesarios para
cada parte que se fabricará.
Pruebas y refinamiento: involucra la construcción y evaluación de múltiples versiones de preproducción del producto. Los primeros prototipos
(alfa) se hacen con partes que pueden tener la misma geometría y propiedades del material que se pretende para la versión de producción, pero no
necesariamente fabricadas con el proceso destinado a producción. Los prototipos beta se hacen con partes fabricadas mediante los procesos de manufactura planeados para producción, pero el proceso de ensamble no es
necesariamente el planeado para producción. Los prototipos alfa suministran información sobre si el producto operará como fue diseñado y si cumple las necesidades del cliente, mientras que los beta evalúan la confiabilidad y rendimiento del producto.
Escalamiento a producción: en esta etapa el producto se fabrica utilizando el sistema de producción que se planeó. El objetivo de esta fase es
entrenar a los operadores, así como identificar y resolver los últimos deta-
9.2 Procesos de desarrollo y organizaciones
229
lles de los procesos de producción. Los productos generados durante esta
etapa generalmente se distribuyen entre clientes preferenciales que ayudarán a detectar posibles debilidades en el artículo. La transición entre esta
fase hacia la producción formal ocurre en forma gradual, y en algún momento de la misma el producto se lanza y se vuelve disponible para distribución masiva.
Desarrollo del concepto, el proceso frontal: el desarrollo del concepto es
la fase que demanda la mayor coordinación entre funciones de todo el proceso, por lo que existe en la bibliograf ía una gran cantidad de métodos de
desarrollo multidisciplinarios e integradores relativos a esta fase. El proceso frontal es una expansión de la fase de desarrollo del concepto, y generalmente tiene varias actividades interrelacionadas. Por lo general, el proceso
no se da en forma secuencial; las actividades en el proceso frontal pueden
traslaparse por necesidad, ya que en cualquier momento puede surgir nueva información que involucrará repetir actividades en forma iterativa. Las
actividades involucradas en el desarrollo del concepto son las siguientes:
•
•
•
•
•
•
•
•
•
•
Identificación de las necesidades del cliente.
Establecimiento de especificaciones objetivo.
Generación del concepto.
Selección del concepto.
Pruebas del concepto.
Determinación de especificaciones finales.
Planeación del proyecto.
Análisis económico.
Estudio del mercado.
Modelado y generación de prototipos.
El proceso de desarrollo descrito es genérico y por lo general se encuentra en una situación en la cual es guiado por el mercado, de forma tal
que, al detectar una compañía una oportunidad en el mercado, usa la tecnología disponible para satisfacer las necesidades del mercado; esto es, el
mercado guía las decisiones del desarrollo. Existen variantes que corresponden a productos guiados por la tecnología, productos en plataforma,
productos de proceso intensivo y productos personalizados.
En el primer caso la compañía posee una tecnología y busca un mercado apropiado donde aplicarla, un buen ejemplo de esto es la fibra GoreTex®, la cual se ha usado en aplicaciones tan diversas como prendas deportivas, botas, aislamiento de cables eléctricos de alto rendimiento, venas
artificiales para cirugías vasculares, etcétera.
Un producto de plataforma se construye con base en un subsistema
tecnológico preexistente, esto es, una plataforma tecnológica. Los productos hechos en plataformas tecnológicas son más fáciles de desarrollar que
si la tecnología se desarrollara desde cero, además, en esos casos hay una
distribución de costos entre diferentes productos que comparten la misma
230
Capítulo 9
Diseño y desarrollo de productos: un enfoque CAD
plataforma. Un buen ejemplo de esto es la línea de reproductores portátiles
de discos compactos Discman de Sony.
Buenos ejemplos de productos de proceso intensivo son los alimenticios, químicos, papel y los semiconductores. En estos casos, el proceso de
producción delimita las propiedades del producto, de forma tal que éste no
puede separarse del diseño del proceso de producción. Los productos de
este tipo se producen en grandes cantidades. En algunas ocasiones, un nuevo producto y un nuevo proceso se desarrollan en forma simultánea; por
ejemplo, generar una nueva forma de cereal requerirá actividades de desarrollo de producto y de proceso.
Los productos personalizados constituyen ligeras variaciones de configuraciones estándar, generalmente se desarrollan en respuesta a la orden
específica de un cliente. Entre estos productos se pueden mencionar interruptores, motores, baterías y contenedores. El desarrollo de productos
personalizados consiste básicamente en ajustar valores de variables de diseño, como dimensiones f ísicas y materiales.
Organizaciones para el desarrollo de productos: como parte de un proceso de desarrollo eficaz, las compañías deben organizar a su personal encargado de desarrollo en forma eficiente. Una organización para el desarrollo
de productos se puede definir como el esquema en que individuos desarrolladores y diseñadores se alían en grupos que forman enlaces formales e
informales entre sí. Los enlaces organizacionales más fuertes son aquellos
que involucran evaluaciones de desempeño, presupuesto y asignaciones de
recursos.
Independientemente de los enlaces, individuos en particular pueden
ser clasificados en dos formas distintas: de acuerdo con su función y con el
proyecto en que trabajan.
•
•
Una función, organizativamente hablando, es un área de responsabilidad que usualmente involucra personal con educación especializada, entrenamiento o experiencia. Ejemplos comunes de funciones en las organizaciones son: mercadotecnia, diseño, manufactura
y finanzas; aunque pueden existir divisiones más especializadas,
como investigación de mercados, estrategia mercadológica, diseño
industrial, ergonomía, administración de operaciones o análisis de
esfuerzos.
Independientemente de sus funciones, los individuos aplican su
conocimiento a series de actividades en el proceso de desarrollo
para un producto en particular, es decir, a un proyecto como la
identificación de necesidades del cliente, la generación de conceptos del producto, etcétera.
No debe perderse de vista que individuos con diferentes funciones van a
trabajar en el mismo proyecto o que un individuo con una sola función
puede estar contribuyendo a más de un proyecto. Debido a esto surgen
9.2 Procesos de desarrollo y organizaciones
231
dos estructuras organizacionales clásicas a partir de la forma en que se
realizan los enlaces organizacionales, ya sea por proyecto o por funciones.
En organizaciones funcionales, los enlaces se dan primordialmente entre
aquellos individuos que realizan funciones similares. En organizaciones
de proyecto, los enlaces se presentan entre aquellos que laboran en el mismo proyecto.
En una organización funcional, individuos con entrenamiento y experiencia similares reportan a un solo gerente que los evalúa y establece sus
remuneraciones. El grupo tendrá su propio presupuesto y ubicación común dentro de las instalaciones, y participará en varios proyectos diferentes, pero sin enlaces organizacionales fuertes con otros miembros de diferentes grupos involucrados en el mismo proyecto. Esto da lugar a grupos
específicos dentro de la organización, como pueden ser los correspondientes a mercadotecnia, diseño o manufactura.
En una organización basada en proyectos se conjuntan individuos con
diferentes funciones, cada grupo se enfoca en el desarrollo de un producto
o línea de manera específica. Estos grupos reportan a un experimentado
gerente de proyecto, que puede provenir de cualquiera de las áreas. Las
nuevas empresas son el mejor ejemplo de organizaciones basadas en proyectos. Estas dos estructuras organizacionales se muestran esquemáticamente en la figura 9.2.
Es claro que los esquemas anteriores no pueden cubrir las necesidades
de todas las empresas, por lo que se han generado esquemas híbridos, donde
los enlaces entre individuos se realizan a través de las funciones y los proyectos. Usualmente, un individuo tiene dos supervisores: un gerente de
proyecto y un gerente de departamento. En la práctica real, una de las dos
Gerente
general
Gerentes
funcionales
Gerente
general
Gerentes
de
proyecto
Organización funcional
FIGURA 9.2 [Ref. Ulrich, 2000]
Organización de proyectos
232
Capítulo 9
Diseño y desarrollo de productos: un enfoque CAD
áreas desarrolla enlaces más fuertes por diversas razones; por ejemplo, los
diferentes gerentes no pueden tener autoridad independiente del presupuesto al mismo tiempo, y la dificultad de agrupar f ísicamente a los trabajadores en la misma localización.
Variantes de estos arreglos híbridos, también llamadas organizaciones
matriciales, han sido desarrolladas por investigadores; dos de éstas son:
organización preponderantemente de proyecto y organización banalmente
de proyecto (heavyweight and lightweight project organizations). En la primera, el gerente de proyecto tiene total control del presupuesto, se encuentra fuertemente involucrado en las evaluaciones del rendimiento de los
trabajadores y toma la mayoría de las decisiones concernientes a la asignación de recursos. Aunque cada participante del proyecto también pertenece a una organización funcional, los gerentes de función tienen reducida
autoridad y control. Este esquema también suele llamarse “equipo integrado de producto” o “equipo de desarrollo de producto”, nombres que enfatizan la multidisciplinariedad de estos equipos.
En la organización banalmente de proyecto, los enlaces funcionales
son los más fuertes, por lo que el gerente de proyecto actúa más como administrador y coordinador, pero sin autoridad y control real en la organización de proyecto. Los gerentes de departamento (funcionales) son responsables del presupuesto, contrataciones y despidos, así como de evaluaciones
de desempeño del personal. Estos esquemas matriciales se encuentran ilustrados en la figura 9.3
Gerentes funcionales
Gerente
general
Gerentes
funcionales
Gerente
general
Gerentes
proyectos
banales
Gerentes
proyectos
preponderantes
Matriz organización banalmente
de proyecto
Organización del desarrollo de varios productos: se muestran 4 funciones y 4 proyectos
FIGURA 9.3 [Ref. Ulrich, 2000]
Matriz organización preponderante
de proyecto
9.3 Planeación de productos
233
La elección de la estructura organizacional más adecuada depende de
la jerarquización de los factores de desempeño organizacional. Las organizaciones funcionales tienden a fomentar la especialización y a profundizar
la experiencia en las diversas áreas funcionales. Las organizaciones de proyecto permiten una rápida y eficaz coordinación entre diversas funciones.
Las organizaciones matriciales, al ser híbridas, tienen el potencial de tomar
cualquiera de estas dos perspectivas. Sin embargo, hay una serie de preguntas que deben formularse al elegir una estructura organizacional:
•
•
•
•
¿Qué tan importante es la integración multifuncional?
¿Qué tan importante es el conocimiento funcional de punta para el
éxito del negocio?
¿Pueden ser empleados los individuos de cada función por toda la
duración del proyecto?
¿Qué tan importante es la velocidad del desarrollo del producto?
Así como éstas, hay más consideraciones a tomar en cuenta, pero es
importante mantener siempre en mente que el punto pivote entre organizaciones funcionales y de proyecto se encuentra entre la extensa experiencia funcional y una eficiente coordinación. El lector puede ampliar sus conocimientos sobre el tema en la bibliograf ía proporcionada.
9.3 Planeación de productos
El proceso de planeación de productos se realiza antes que el proyecto de
desarrollo de productos sea formalmente aprobado, se le inviertan recursos
significativos y se forme un equipo de desarrollo. La planeación de productos es la actividad que considera la gama de proyectos que una organización puede emprender, y determina cuáles de éstos serán desarrollados y en
qué periodo. Esta actividad asegura que los proyectos estén acordes con la
estrategia de negocios de la compañía y da respuesta a los siguientes cuestionamientos:
•
•
•
•
¿Qué proyectos de desarrollo de producto se llevarán a cabo?
¿Qué proporción de los proyectos deben ser productos fundamentalmente nuevos, cuántos de plataforma y cuántos derivativos?
¿Cómo se relacionan entre sí los nuevos proyectos?
¿Cuál será la secuencia y cronología que seguirán los proyectos?
Cada uno de los proyectos será realizado por un equipo de desarrollo de
productos, el cual necesita conocer la misión del producto, antes de empezar con su desarrollo. Esta misión da respuesta a preguntas cruciales que
deben incluirse en la declaración de la misma para el equipo de desarrollo:
•
¿Qué segmentos del mercado deben tomarse en cuenta al diseñar
el producto y desarrollar sus características?
234
Capítulo 9
Diseño y desarrollo de productos: un enfoque CAD
Identificar
oportunidades
Evaluar y
jerarquizar
proyectos
Portafolio
de
proyectos
Asignar recursos
y calendarizar
Plan
estratégico
del
producto
Completar la
planeación del
pre-proyecto
Declaración
de la misión
del
producto
Proceso de
desarrollo del
producto
FIGURA 9.4 [Modificado a partir de Ulrich, 2000]
•
•
•
•
¿Qué tecnologías, nuevas o existentes, deben incorporarse en el
nuevo producto?
¿Cuáles son los objetivos y limitantes en manufactura y servicio del
producto?
¿Cuáles son las metas financieras del producto?
¿Cuál es el presupuesto y tiempo destinado al proyecto?
La planeación del producto puede realizarse con un plan basado en cinco
pasos, que inicie con una identificación de áreas de oportunidad y resulte
en la declaración de la misión del producto, como se muestra en la figura 9.4.
Inicialmente se jerarquizan múltiples oportunidades y se selecciona un
conjunto de proyectos potenciales, se asignan recursos a esos proyectos y
se calendarizan. Estas actividades de planeación deben enfocarse, en general, en un portafolio de oportunidades y proyectos potenciales, para constituir de esta manera una gerencia de producto. Es importante tomar en
cuenta que el plan del producto debe reevaluarse frecuentemente y modificarse cuando surja nueva información proveniente de equipos de desarrollo, investigadores, producción o mercadotecnia. La habilidad de ajustar
el plan del producto durante el proceso es vital para asegurar la buena conclusión de la empresa. Los pasos sugeridos para desarrollar el plan del producto y su misión son los siguientes:
1.
2.
3.
4.
5.
Identificar oportunidades.
Evaluar y jerarquizar los proyectos.
Designar recursos y calendarizar.
Completar la planeación del preproyecto.
Reflexionar en los resultados y el proceso.
Las ideas para identificar las oportunidades pueden provenir de diversas
fuentes, como personal de mercadotecnia y ventas, organizaciones dedicadas a la investigación y desarrollo de tecnología, actuales equipos de desarrollo de productos, organizaciones de manufactura y operaciones, clientes
9.3 Planeación de productos
235
actuales o potenciales, agentes externos (como proveedores, inventores o
socios de negocios). La compañía debe desempeñar un papel proactivo en
la generación de oportunidades, lo cual puede lograrse por medio de actividades, como documentar las quejas y sugerencias que los clientes tienen
en relación con los productos existentes; entrevistar usuarios expertos para
catalogar las posibles modificaciones y adaptaciones que han hecho de los
productos; considerar implicaciones demográficas, sociales y tecnológicas
de las categorías de producto existentes, buscando segmentos del mercado
que no están satisfechos, y estudiar cuidadosamente los productos de la
competencia en forma continua.
El paso anterior da lugar a una colección de oportunidades que en un
año puede incluso llegar a miles. Algunas de estas oportunidades no estarán
en contexto con las otras actividades de la compañía o simplemente no será
viable tratar de desarrollar todas las ideas al mismo tiempo. La selección de
las oportunidades a ser desarrolladas se vuelve entonces el segundo paso a
seguir en este proceso. Existen cuatro perspectivas básicas útiles para desarrollar esta actividad, y son: la estrategia corporativa, segmentación de mercados, trayectorias tecnológicas y las plataformas de productos.
La estrategia corporativa de una organización define la forma en que se
encaran mercados y productos con respecto a aquellos de la competencia.
Muchos directores y ejecutivos de alto nivel dedican gran parte de su tiempo a discutir sus competencias estratégicas y definir las estrategias con las
que piensan competir en el mercado. Hay varias estrategias posibles, entre
las cuales se pueden mencionar las siguientes:
•
•
•
•
Liderazgo tecnológico. Se enfatiza la investigación y el desarrollo
de nuevas tecnologías y su empleo.
Liderazgo en costos. Se compite en eficiencia productiva a través
de economías de escala, mejores métodos de manufactura, mano de
obra barata o mejor gestión de los sistemas de producción.
Enfocado al cliente. Se trabaja en colaboración con los clientes
para estimar los cambios en sus necesidades o preferencias.
Imitación. Se siguen las tendencias del mercado y se imitan los
productos exitosos de la competencia.
La elección de la estrategia competitiva de la empresa definirá las oportunidades que formarán parte del portafolio de proyectos; por ejemplo, una
empresa que persigue una estrategia de bajos costos tendrá un portafolio
con opciones centradas en proyectos que mejoren los sistemas de producción.
Por otro lado, ya que el tiempo y los recursos disponibles en la empresa
deben ser asignados a los proyectos más promisorios, invariablemente se
presentará una situación en que varios proyectos competirán por unos pocos recursos. Diversas organizaciones emprenden demasiados proyectos,
sin tomar en cuenta la limitada disponibilidad de los recursos de desarrollo;
236
Capítulo 9
Diseño y desarrollo de productos: un enfoque CAD
esto resulta en que ingenieros y gerentes capacitados se ven asignados a
más y más proyectos, lo que da lugar a una disminución en la productividad, retrasos en tiempo al mercado y disminución de las ganancias. Estimar los recursos requeridos por cada uno de los proyectos a nivel mensual,
trimestral y anual, hace ver a la organización lo limitado de sus recursos. El
primer factor a considerar es la necesidad de recursos humanos, usualmente representados en horas-hombre; otros recursos críticos que requieren
una cuidadosa planeación son equipos de prototipos, líneas de producción
piloto, instalaciones para pruebas, etc. Una estimación de los recursos requeridos se puede hacer a partir de un cálculo de la utilización del equipo
(demanda/capacidad) y cuidar que ésta nunca exceda el 100%, que es cuando no existen suficientes recursos para ejecutar todos los proyectos en el
plan. De hecho, para prevenir posibles contingencias se debe planear una
utilización menor al 100%. Los proyectos menos relevantes tendrán que ser
eliminados del plan o desplazados en el cronograma.
Ya que el proyecto ha sido aprobado, se debe realizar una planeación de
actividades del preproyecto; esto es, debe ejecutarlo un pequeño equipo
multidisciplinario que represente varias áreas de competencia, como mercadotecnia, manufactura, servicio, etc. En este punto se puede producir
una declaración de la visión del producto que, al tomar en cuenta factores
como el mercado objetivo, las metas deseadas y demás, se transformen en
la declaración de la misión del producto.
Por ejemplo, para el caso del diseño de un ventilador de mesa como
nuevo producto de la gama de una empresa de electrodomésticos, la declaración de la misión del producto quedaría de la forma en que se muestra en
la tabla 9.1. Es importante no perder de vista que es en este punto donde la
administración define metas corporativas (en términos financieros y de
mercadotecnia) y estrategia general para el producto [Ulrich, 2000].
Dado que la misión del producto es el borrador para el equipo de desarrollo, debe comprobarse que se ajuste a la realidad de la empresa y el mercado antes de invertir mayor cantidad de recursos en el proyecto.
9.4 Identificación de necesidades y generación
de especificaciones ingenieriles
Todas las características que debe reunir un producto que se manufactura
son establecidas por las necesidades de cada “elemento” que interactúa con
él: proveedores, departamento de manufactura, departamento de ensamble, equipo de distribución, consumidor y, finalmente, medio ambiente.
Cuanto mejor se entiendan y aborden tales necesidades, el flujo del producto a lo largo de su vida tendrá menos complicaciones, lo que se reflejará
en menores costos operativos y de disposición final.
Hay dos formas de abordar las especificaciones que competen a un
producto: como parámetros que acotan al proyecto y como necesidades del
9.4 Identificación de necesidades y generación de especificaciones ingenieriles
237
TABLA 9.1 Misión del producto
Misión del producto: Ventilador de mesa
Descripción del producto
Ventilador de mesa eléctrico para uso en el país (110 V), ligero, disponible en tiendas de
electrodomésticos.
Metas corporativas
— Captar 15% del mercado en un lapso de cinco años.
— Proceso de desarrollo de 8 meses.
Mercado primario
Hogares.
Mercado secundario
Oficinas y bodegas.
Suposiciones
— Eléctrico (110 V), para corriente alterna.
— Bajo consumo energético.
— Ligero.
— Amigable con el medio ambiente.
Grupos involucrados
— Accionistas.
— Departamento de logística.
— Departamento ambiental.
— Departamento de producción.
— Equipo de diseño.
cliente. Las acotaciones de un proyecto se identifican desde un principio,
ya que son de carácter técnico y específico. Una regulación gubernamental
con respecto al máximo de emisiones permitidas en un proceso es un parámetro cuya naturaleza establece lineamientos ineludibles. Sin embargo, las
necesidades de clientes son áreas no estrictas en las que se busca optimizar
para obtener mayor satisfacción o menores costos operativos.
Antes de analizar cuáles son las necesidades del cliente, es importante
saber qué se entiende por cliente. Tradicionalmente, se tiende a pensar que
el cliente es el consumidor final del producto. Esto es correcto, sin embargo, no es el único cliente que se puede tener. Las empresas no sólo deben
considerar como clientes a quienes compran directamente el producto ni a
los consumidores finales, sino también a todas las instancias intermedias
en la cadena de suministro entre el diseñador y el último consumidor. Desde esta perspectiva, las “necesidades del cliente” adquieren totalmente otro
propósito, ya que se están incluyendo muchas más consideraciones en la
creación del diseño. La empresa misma es cliente de sus proveedores.
Para el caso de un ventilador de mesa se tratan los siguientes clientes,
por considerar que son los más importantes: el consumidor final y el fabricante. Es necesario traducir las necesidades de los clientes a especificaciones técnicas para obtener un lenguaje común entre éstas y los parámetros
de acotamiento. Sólo así se podrá mejorar en todas direcciones.
Necesidades del consumidor final: el proceso de convertir las necesidades de los consumidores finales en especificaciones técnicas del producto
es de vital importancia para estar en condiciones de dar un seguimiento
238
Capítulo 9
Diseño y desarrollo de productos: un enfoque CAD
adecuado y resolverlas durante las etapas subsecuentes del proceso de desarrollo, que es el siguiente:
1. Obtener información de los clientes.
2. Interpretar la información en términos de necesidades de los clientes.
3. Organizar las necesidades por jerarquías.
4. Establecer la importancia relativa de las necesidades.
5. Reflexionar sobre los resultados y el proceso.
Para el caso hipotético de un ventilador de mesa se pueden desarrollar los
cinco pasos anteriores, comenzando con la realización de encuestas a diversos clientes potenciales. Las entrevistas se dividen en dos etapas: la primera tiene la finalidad de obtener del cliente sus opiniones abiertas sobre
sus impresiones y necesidades de un ventilador de mesa; la segunda contiene preguntas específicas. La encuesta podría tomar la siguiente forma:
1a. parte:
•
•
•
¿Qué busca en un ventilador de mesa?
¿Cuáles son las características más importantes para usted?
¿En general, qué es lo que más suele molestarle de ventiladores que
ha tenido?
2a. parte: se clasifican los siguientes atributos por importancia:
1. Costo
2. Estética
3. Funcionalidad
El manejo de los resultados de la encuesta se haría de la siguiente forma:
•
•
1a. parte: de la información general recolectada, se identifican las
características que más mencionan los encuestados; un ejemplo
puede ser la necesidad de que el ventilador no haga ruido durante
su funcionamiento y tenga al menos dos velocidades.
2a. parte: para las preguntas de la segunda sección, las respuestas
de los participantes se clasifican en una distribución y jerarquización de los atributos más importantes del producto. Es recomendable graficar los resultados obtenidos, con el objeto de identificar
las características que más desea el cliente. Esto se muestra en forma de ejemplo en la figura 9.5.
Necesidades del fabricante: en esta etapa se analizan las preferencias y
necesidades de la compañía; por ejemplo, de tres departamentos (pueden
239
9.4 Identificación de necesidades y generación de especificaciones ingenieriles
Resultados de encuesta
100%
90%
80%
70%
60%
50%
Estética
40%
Costo
30%
Funcionalidad
20%
10%
0%
1o.
2o.
3o.
Prioridad
FIGURA 9.5 [Modificado a partir de Andere, 2004]
ser más): manufactura, logística y medio ambiente. Si la empresa tiene ya
algunos años en el mercado, eso significa que también tiene una infraestructura establecida. Para cada sección se entrevista a expertos en cada tema, quienes fungen como directores de cada área para la empresa. Cada
director proporciona entonces una lista preliminar de prioridades que el
diseñador debe tomar en cuenta desde el inicio para el primer diseño del
producto.
Establecimiento de especificaciones (QFD): las especificaciones ingenieriles deben ayudar a distinguir las diferencias existentes entre las alternativas durante la evaluación, deben ser mensurables, cada requerimiento debe
identificar una sola alternativa y ser universal.
La identificación de las necesidades y la generación de las especificaciones ingenieriles se realizarán con el método “quality function deployment” (QFD).
El método QFD ayuda a generar la información necesaria para desarrollar las especificaciones ingenieriles en el proceso de diseño de un producto, comparándolo con otros ya existentes en el mercado. Los pasos del
método llevan a la construcción de una casa de calidad (house of quality)
donde se desarrolla cada paso del método, como se ilustra en la figura 9.6.
Para realizar la casa de calidad se deben seguir los siguientes pasos:
1.
2.
3.
4.
Identificar quiénes son los consumidores.
Encontrar qué es lo que esperan que el producto haga.
Determinar qué aspectos son importantes y para quién lo son.
Identificar la forma en que el problema puede ser resuelto; cómo
perciben los clientes las habilidades para encontrar los requerimientos que necesitan en el producto.
240
Capítulo 9
Diseño y desarrollo de productos: un enfoque CAD
Paso 8
Paso 1
Paso 3
Paso 2
Paso 5
Paso 4
Paso 6
Paso 4
Paso 7
FIGURA 9.6
5. Definir cómo se van a medir las habilidades de cada producto para
satisfacer los requerimientos; por ejemplo: peso, dimensiones, rendimiento, etcétera.
6. Analizar la correlación entre qué es lo que quieren que el producto
haga y cómo se va a lograr que lo haga. Ésta es una relación entre
los pasos 2 y 5, la cual se mide de acuerdo con el nivel de interrelación (determinada por el diseñador) que tengan entre sí, mediante
lo siguiente: fuerte relación = •; mediana relación = 䊊; débil relación = Δ.
7. En la base de la casa se desarrolla el análisis de la información objetivo. Se establecen las medidas deseadas y las no deseadas para el
producto, y se contrastan con las medidas que presentan los artículos con los que se está comparando.
8. En el techo de la casa se desarrolla la interrelación de las especificaciones ingenieriles.
Estas especificaciones pueden tener cierta interdependencia, es por
ello que se miden de la siguiente manera: # negativo, 1; fuertemente
negativo, 3; • fuertemente positivo, 9; 䊊 positivo, 3.
Los pasos anteriores ayudan a obtener las necesidades del producto,
cada paso corresponde a una estructura de la casa de calidad. Un ejemplo
de cómo luce una casa de calidad se muestra en la figura 9.7.
En la casa de calidad se pueden encontrar las necesidades de los clientes (que se interpretan como atributos que debe tener el producto), un esquema general de mediciones para calificar los atributos del producto, las
relaciones que las mediciones tienen con las necesidades de los clientes, la
241
Unidades
#l
%
Selección del motor
% material reciclable
Dirección de
mejoramiento
Tipo de empaque
# de piezas
Velocidad de
funcionamiento
% manufactura actual
Diámetro base
Largo aspas
Comp.1
Forma de empaque
(sobre
100)
Ventilador de mesa
Peso
Departamento de
Producción
Consumidor final
9.4 Identificación de necesidades y generación de especificaciones ingenieriles
Comp.2
Comp.3
1
2
3
4
kg
cm
cm
%
rpm
#
-
w
22
1
Silencioso
13
1 Consumidor
final
No vibre
14
1
Varias velocidades
14
1
Oscile
11
1
Se incline
4
12
Buen empaque
6
10 Logística
Ligero
1
13
Apilable
2
13 Manufactura
Tiempo de ensamble
-
-
-
-
1
12
Fabricado 'in-house'
-
-
-
-
1
12
Poca energía
(fabricación)
-
-
-
-
1
11 Medio
ambiente
-
-
-
-
Poco material
7
7
Reciclable
3
5
Reutilizable
Competencia 1
5.42
40
49
ND
-
18
Rec.
6
ND
-
Competencia 2
4.9
40
52
ND
-
23
Rec.
6
ND
-
Competencia 3
5.1
40
43
ND
-
20
Rec.
6
ND
-
Meta (deseable)
4.8
35
45
100 -
17
Rec.
6
75
-
Meta (indeseable)
5.5
45
53
50
24
Red.
7
10
-
FIGURA 9.7 [Modificado a partir de Andere, 2004]
-
242
Capítulo 9
Diseño y desarrollo de productos: un enfoque CAD
importancia de cada necesidad para los clientes más significativos, el estado actual de la competencia respecto de las necesidades, las metas para
cada concepto (en unidades previamente establecidas), etcétera.
Sin embargo, es importante recordar que el objetivo último de este
procedimiento es diseñar un producto y su proceso, de manera que se minimicen costos y se maximice la satisfacción del cliente, en la búsqueda de
mayor rentabilidad del proyecto. Es entonces cuando se entiende que los
atributos se miden en una primera fase, para después determinar costos
operativos y, finalmente, evaluar el diseño del producto y su proceso.
9.5 Generación y selección de conceptos:
el uso del CAD
Teniendo en mente la lista de principales temas de análisis proveniente de
la casa de calidad, un equipo de diseño tiene bien establecido qué características son prioritarias en el producto que desarrollará. Es muy importante resaltar que se debe disponer de toda la información necesaria para que
los diseñadores puedan tomar las decisiones correctas con respecto a los
detalles finales del producto. El tiempo disponible y la experiencia del equipo de trabajo son factores que invariablemente determinan el éxito de cualquier diseño.
Existen acotaciones técnicas específicas (fijas), además de restricciones
iniciales referentes a peso, tamaño y condiciones del mercado. El éxito provisional del primer diseño se basará en la experiencia o formación profesional del equipo de diseño.
Es sumamente importante recordar que muchas veces el nuevo producto se está integrando a una compañía ya establecida; por tanto, se puede
suponer que tal empresa ya cuenta con cadenas de suministro bien establecidas para cada uno de sus productos, así como infraestructura en general.
El nuevo concepto de producto procura integrarse de la mejor manera posible a la infraestructura logística existente, de modo que se busca formar
la mejor cadena de suministro posible con los elementos disponibles.
A lo largo de la historia el diseño, en forma de dibujo, se utilizó como
paso previo a la elaboración de obras (escultura, pintura, etc.), y con el auge
del desarrollo industrial adquirió una presencia continua en los diversos
aspectos de la vida del hombre.
En la modernidad, el término diseño hace referencia a la planeación y
proyección de formas y objetos que suponen una modificación del entorno
humano.
El diseño se relaciona directamente con las formas, los materiales y las
funciones que un objeto debe tener para lograr un producto único y original que responda a algún planteamiento definido. Este objeto debe adecuarse a las necesidades sociales que lo someten a cambios continuos debido a la competencia y las innovaciones técnicas.
243
9.5 Generación y selección de conceptos: el uso del CAD
Para realizar el diseño de un producto cualquiera es necesario conocer
las especificaciones cinemáticas, mecánicas y el tipo de material que responde mejor a las necesidades del producto, tanto en costo como en resistencia al medio ambiente.
El equipo de diseño puede hacer uso de herramientas elegidas por la
empresa para desarrollar y modificar toda su línea de productos, las cuales
pueden ser desde un simple programa de dibujo asistido por computadora,
hasta poderosos programas de modelado de sólidos en forma tridimensional para realizar el diseño conceptual.
El diseño conceptual es la exploración de las diferentes alternativas de
diseño para cada uno de los componentes del sistema; para ello, es necesario
reconocer las ventajas y desventajas de éstas para crear una metodología
clara que permita elegir las más convenientes. Este proceso se caracteriza
por la selección de posibles diseños con base en ciertas condiciones, como
facilidad de manufactura, producción y ensamble, disponibilidad de componentes comerciales, proveedores calificados y cumplimiento de normas
internas o externas.
El proceso de diseño se caracteriza por una serie de etapas de refinamiento de la idea original. Existe una interpretación de las necesidades básicas, las cuales se convierten en restricciones técnicas que ayudan a acotar
y delimitar el diseño para lograr las características del producto. Este proceso comúnmente se caracteriza por una enorme gama de soluciones en las
primeras etapas, que se van reduciendo conforme se delimita el diseño (figura 9.8).
CARACTERÍSTICAS DE DISEÑO
ESPECTRO DE SOLUCIONES
DEFINICIÓN DE LOS
REQUERIMIENTOS DEL PRODUCTO
PROBLEMA
REQUERIMIENTOS
FUNCIONALES DEL
PRODUCTO
EVALUAR DIA GNÓSTICO
GRADO DE INCORPORACIÓN
PROCESO
FUNCIONES
PRINCIPIOS
ESTRUCTURA DE CONJUNTO
ESTRUCTURA
REQUERIMIENTOS
DE ESTRUCTURA
Y MATERIAL
FORMA DE LOS ELEMENTOS
MATERIALES
DISEÑO
GENERAL
DIMENSIONES
CALIDAD DE LA
SUPERFICIE
DISEÑO
DE
DETALLE
FIGURA 9.8 [Modificado a partir de López Sanromán, 2004]
DETALLE DE FORMA
244
Capítulo 9
Diseño y desarrollo de productos: un enfoque CAD
El diseño conceptual así logrado refleja de manera burda las proporciones aproximadas del sistema, las relaciones geométricas entre los diferentes componentes y brinda los primeros acercamientos a problemáticas a las
cuales se enfrentará el diseño final.
El diseño de detalle provee las dimensiones finales de cada uno de los
componentes del sistema con sus respectivas tolerancias; asimismo, acota
de manera precisa las interrelaciones geométricas entre los diferentes componentes. El diseño de detalle provee toda la información necesaria para
maquinar cada uno de los componentes, respetando todas las restricciones
técnicas pertinentes y acotando la brecha de información entre el diseño
conceptual y el final.
Se provee la información en forma de esquemas y planos de cada una
de las partes, así como una hoja de ruta para el ensamble del sistema. Cada
una de las piezas que componen el sistema se debe tratar de manera aislada, para que el supervisor entienda cuáles fueron los pasos para llegar al
FIGURA 9.9 [Modificado a partir
de Andere, 2004]
9.7 Estrategias modernas de diseño considerando PLM
245
diseño final de cada pieza o, en su caso, cuáles fueron las razones para
escoger una pieza comercial sobre otras. Para el ejemplo del ventilador se
muestran imágenes de algunos componentes del sistema, así como del ensamble final logrado, como un primer diseño de detalle.
9.6 Pruebas y prototipos mediante CAM
Ningún diseño es infalible ni se sabe todo lo relevante acerca de él mientras
no haya sido validado a partir de pruebas reales. Las pruebas experimentales son herramientas muy poderosas que permiten aprender, verificar y validar el diseño logrado; pueden realizarse solamente en componentes aislados, subsistemas o en el producto completo. Sin embargo, es necesario
tener f ísicamente el componente a probar, lo cual se puede lograr por medio
de técnicas de prototipos rápidos o de manufactura integrada por computadora, como las descritas en el capítulo 7.
Los prototipos pueden probarse en varios aspectos, dependiendo de la
información que se busca. Por ejemplo, es posible hacer pruebas para caracterizar los materiales a ser usados; también se pueden hacer para verificar el correcto diseño en términos ergonómicos del producto, etcétera. Es
muy importante definir cuál es el propósito de las pruebas a realizar, ya que
consumen recursos materiales y humanos, lo cual se refleja en costos y
tiempo.
En el caso que las pruebas a realizar sean para conocer el espectro
completo que pueden tener diferentes variables de un diseño, así como su
sensibilidad a los cambios en parámetros, es necesario hacer un diseño detallado del experimento a realizar utilizando técnicas estadísticas.
Es también muy importante tomar en cuenta que las pruebas deben
proporcionar resultados mesurables y congruentes, por lo que se debe tener especial cuidado en la selección, instalación y calibración de los diferentes instrumentos y sensores que se utilizarán.
Las pruebas a realizar no deben centrarse únicamente en el producto
en sí, también deben probarse las líneas de producción y procesos de manufactura propuestos, incluyendo los herramentales necesarios para fabricar el producto.
Finalmente, cuando el producto se encuentra en las fases finales es
conveniente proporcionar ejemplares del mismo a usuarios expertos, ya
sean internos o externos, para que al usar el producto detecten posibles
áreas de mejora antes del lanzamiento formal y masivo en el mercado.
9.7 Estrategias modernas de diseño
considerando PLM
El uso de cualquier método de diseño en particular durante el proceso del
diseño será, a menudo, un esfuerzo que desviará de la tarea central de dise-
246
Capítulo 9
Diseño y desarrollo de productos: un enfoque CAD
ñar. Sin embargo, ésta es exactamente la importancia de usar un método;
significa la aplicación de algún pensamiento en el cual se está abordando el
problema. Requiere de cierto pensamiento estratégico para el manejo del
proceso del diseño.
Una estrategia de diseño describe el plan de acción general para el proyecto y la secuencia de las actividades particulares que el diseñador, o el
equipo de diseño, espera adoptar para seguir con el plan. Al tener una estrategia, es necesario saber hacia dónde se dirige y cómo se llegará ahí.
El propósito de la estrategia es asegurarse que las actividades continúan siendo realistas respecto a tiempo, recursos, etcétera, dentro de los
cuales debe trabajar el equipo de diseño.
Muchos diseñadores parecen funcionar sin una estrategia explícita de
diseño; sin embargo, trabajar sin algún plan evidente para la acción puede
ser una estrategia, la cual se llama estrategia de búsqueda al azar. En el
extremo opuesto a esta búsqueda, se encuentra una secuencia completamente fiable o prefabricada de acciones ya probadas.
Estilos de la estrategia. La búsqueda al azar y las estrategias prefabricadas representan dos formas extremas. En la práctica, la mayoría de los proyectos de diseño requieren una estrategia que tienda en alguna parte de
cualquiera de estas dos, así como elementos de los contenidos de ambos.
La estrategia de búsqueda al azar representa un acercamiento predominante divergente del diseño; la estrategia prefabricada representa un
acercamiento predominante convergente. Normalmente, el objetivo global
de una estrategia de diseño tenderá a converger sobre una final, evaluada y
detallada del diseño; pero dentro del proceso para alcanzar el diseño final,
habrá ocasiones en que será apropiado y necesario divergir, para ensanchar
la búsqueda o buscar nuevos puntos de partida e ideas.
El proceso del diseño total es, por lo tanto, convergente, pero contendrá periodos de la divergencia deliberada. Los psicólogos han inferido que
algunas personas son naturalmente convergentes y otras son naturalmente
divergentes. En un contexto de equipo, los diseñadores con un estilo preferido pueden ir a la delantera en ciertas etapas.
Los pensadores convergentes son generalmente hábiles en el diseño del
detalle, en la evaluación y la selección de la mayoría de las ofertas factibles
para un intervalo de opciones.
Los pensadores divergentes son generalmente diestros en el diseño de
concepto y en la generación de una amplia gama de alternativas. Ambas
clases de pensadores son claramente necesarias para el diseño acertado.
Una de las dicotomías más importantes del estilo de pensamiento aparece
entre el serial y el concurrente. El proceso serial prefiere proceder poco a
poco, en pasos cortos para conseguir cada punto claramente; mientras que
el proceso concurrente prefiere proceder con un frente mucho más amplio,
usando las partes de la información que no están conectadas necesariamente de manera lógica, y haciendo a menudo cosas fuera de secuencia.
9.7 Estrategias modernas de diseño considerando PLM
247
Otra distinción importante entre los dos estilos de pensamiento la
constituyen el pensamiento lineal y el lateral. El pensamiento lineal procede rápida y eficientemente en dirección a un objetivo, pero puede quedarse
estancado en una encrucijada, ya que sigue procedimientos preestablecidos; el pensamiento lateral exige la preparación para ver y moverse hacia
nuevas direcciones del pensamiento.
Para cualquier diseñador, ya sea individual o como miembro de un
equipo de diseño, abordar el problema y alcanzar la meta implicarán las
habilidades estratégicas como entrenador, y las habilidades tácticas como
jugador. Conviene tener en cuenta que, como equipo, deberán hacerse revisiones de media jornada de la estrategia, para asegurarse que el problema
se aborda de la manera correcta. Una estrategia del diseño, por lo tanto,
debe proveer dos elementos: un marco de acciones previstas dentro del
cual se operará y una función de control de la gerencia, que permita adaptar acciones para aprender más sobre el problema.
Control de la estrategia: el segundo aspecto importante de una estrategia
acertada de diseño es que conlleva un elemento importante de control en su
manejo. Si usted está trabajando individualmente en un proyecto, eso significa que también es el único administrador del proyecto. Si está trabajando
como parte de un equipo, el líder del equipo o un consenso de los miembros
hace revisiones del progreso y decide modificaciones en la estrategia.
Independientemente del marco general que se adopte para el proyecto,
es necesario tener cierto control de la estrategia para evitar tiempo perdido. Las siguientes son algunas reglas simples del control de la estrategia:
•
•
•
•
Mantenga sus objetivos claros. En el diseño es imposible tener un
sistema de objetivos completos y fijos, porque los extremos y los
medios se entretejen en el producto. Una resolución creativa implica a menudo el cambio de alguno(s) de los objetivos originales.
Sin embargo, esto no significa que no existan objetivos claros.
Mantenga su estrategia bajo revisión. Una estrategia del diseño necesita ser flexible, adaptable e inteligente; repásela regularmente. Si
usted percibe que sus acciones no están siendo muy productivas,
entonces debería detenerse brevemente para preguntarse si hay
una manera mejor de proceder.
Participación de la gente. Un problema se puede ver de diferentes
formas, y es a menudo verdad que “dos cabezas son mejores que
una”. Una de las maneras más fáciles de clasificar un problema se
puede desarrollar mediante la explicación de éste a otros individuos, y así generar más y mejores soluciones.
Mantener archivos separados para cada aspecto. Mantener archivos separados para cada aspecto permite alternar rápidamente de
uno a otro. Posiblemente generará ideas a cada momento, por lo
que necesitará mantenerlas guardadas hasta que el proyecto esté
terminado.
248
Capítulo 9
Diseño y desarrollo de productos: un enfoque CAD
EJERCICIOS PROPUESTOS
1. ¿Cuáles son los principales factores que se deben tomar en consideración para el desarrollo
de un concepto?
2. Muestre gráficamente y en orden los cinco pasos a seguir en la planeación de un producto.
3. Suponga que cierta empresa de artículos de higiene personal desea diseñar un pañal
de bebé para lanzarlo a la venta. Elabore la tabla de Misión del producto para este nuevo
artículo.
4. Mencione ejemplos de empresas que usen las siguientes estrategias corporativas: liderazgo
tecnológico, liderazgo en costos, enfoque al cliente e imitación.
5. Desarrolle una casa de calidad para los siguientes productos:
a) Mouse óptico inalámbrico
b) Pluma fuente de escritura
6. Genere una estrategia para los objetos del problema anterior.
7. Desarrolle un cuadro comparativo de los cuatro principales softwares usados en el CAD.
Referencias
Andere Portas, E. (2004). Estudio de un marco de
diseño integral con evaluación de impactos
ambientales y logísticos, trabajo final de titulación supervisado por el doctor Sergio Romero,
Instituto Tecnológico Autónomo de México.
Crawford, C. M. y Di Benedetto, C. A. (2000). New
Products Management, 6a. Ed. McGraw-Hill,
Nueva York.
Cross, Nigel. (2000). Engineering Design Methods,
Strategies for Product Design. 3a Ed. John Wiley
& Sons, Londres.
Dym, C. L. y Little, P. (2001). Engineering Design: A
Project Based Introduction, John Wiley & Sons,
Nueva York.
Gigola, C., Romero-Hernández, O. y Romero-Hernández, S. (2004). “Diseño de nuevos productos:
una actividad multidisciplinaria”, en Dirección
Estratégica, núm. 12, año 4, México.
Graedel, T. E. y Allenby, B. R. (1996). Design for
Environment, Prentice Hall, Nueva York.
Hayes, R. H., Wheelwright, S. C. y Clark, K. B.
(1988). Dynamic Manufacturing: Creating the
Learning Organization, The Free Press, Nueva
York.
López Sanromán, R. y Romero Hernández, S. (2004).
Design of an Impact Test System for Polymers,
ICAMES, Bogazici Universitesi, Estambul.
Romero-Hernández, S. (2002). “Ingeniería total
asistida por computadora: menores tiempos,
menores costos, innovación efectiva”, en
Dirección Estratégica, núm. 2, año 1, México.
Romero-Hernández, S. y Romero-Hernández, O.
(2003). “A Framework of Computer Aided
Engineering and LCA applied for Life Cycle
Management”, en LCA/LCM International
Conference, Seattle, septiembre.
Romero-Hernández, S., Gigola, C. y Romero-Hernández, O. (2004). “Incorporation of Effective
Engineering Design, Environmental Performance and Logistics Planning for Products LCM”, en
2nd World POM Conference, Cancún, México.
Ullman, D. G. (2003). The Mechanical Design Process,
3a. Ed. McGraw-Hill, Nueva York.
Ulrich, K. T. y Eppinger, S. D. (2000). Product Design
and Development, McGraw-Hill (Higher
Education), Nueva York.
CAPÍTULO
10
Ingeniería económica
AUTORES:
Dr. Miguel de Lascurain Morhan
Ing. Roberto Apáez Flores
10.1 Rentabilidad
10.2 Principales medidas de rentabilidad
10.3 Fuentes de recursos financieros
10.4 Estudio de caso
10.1 Rentabilidad
Un proyecto de ingeniería industrial tiene que ser técnicamente viable,
operativamente confiable y eficiente, amigable con el medio, ergonómico y,
en general, satisfacer todos los requerimientos y necesidades establecidos en
su diseño. Más importante que lo anterior, el proyecto tiene que ser económicamente rentable.
La rentabilidad de un proyecto no solamente le compete a los accionistas y dueños de una empresa. A un trabajador también le conviene la rentabilidad de los proyectos, ya que una empresa rentable puede pagar mejores
salarios y proveer una mayor seguridad en el empleo. Los acreedores de una
empresa también se benefician con proyectos rentables porque aseguran el
pago de sus préstamos. En general, la sociedad se beneficia por los proyectos rentables, ya que son éstos los que hacen un uso eficiente de los recursos
escasos y su implantación se traduce en mejores bienes y servicios para toda la sociedad. Exactamente lo contrario puede decirse de los proyectos no
rentables.
Es interesante hacer notar que en el idioma inglés se utiliza la palabra
shareholder para denominar a los accionistas de una empresa y la palabra stakeholder para nombrar a todas aquellas personas que se ven beneficiadas cuando una empresa cumple con su cometido social de ser rentable
250
Capítulo 10
Ingeniería económica
o perjudicadas cuando no lo logra. No existe una palabra en castellano que
defina esta característica.
Empero, ¿cuándo se puede decir que un proyecto es rentable? ¿Cómo
se puede medir la rentabilidad de un proyecto cuando éste ni siquiera ha
sido realizado?
Contestar estas preguntas es el objetivo de este capítulo; sin embargo,
conviene introducir varios conceptos que serán utilizados más adelante.
Para tomar decisiones es necesario poder comparar cosas que tengan la
misma naturaleza: peras con peras y manzanas con manzanas, como se dice
comúnmente. Entre dos proyectos opcionales uno elige aquel que produzca mayores utilidades o el que sea más amigable con el medio. También es
necesario reducir todas las variables de comparación a una sola. Por ejemplo, ¿cómo decidir entre un proyecto que daría más utilidades pero provocaría más daños al medio y otro más amigable con el ambiente pero que
produciría menor utilidad? Para poder tomar una decisión en este caso,
habría que expresar los daños al medio y las utilidades en las mismas unidades.
En ingeniería económica las unidades de medición son los recursos financieros o, en términos llanos, el dinero. La rentabilidad de un proyecto
se mide en pesos y centavos. Todas las variables de importancia en un proyecto determinado tienen que ser expresadas en términos monetarios para
poder comparar este proyecto con otros o con inversiones financieras alternativas.
Estudios profundos sobre el dinero pueden encontrarse en cualquier
texto sobre teoría monetaria. Aquí solamente interesa saber que el dinero
tiene dos propiedades fundamentales: por una parte, es un medio de intercambio entre mercancías o servicios y, por la otra, tiene un valor intrínseco
propio, como cualquier otro bien o servicio, y se ajusta a las leyes de la
oferta y la demanda, a pesar de que actualmente el dinero es un simple papel fiduciario, sin ningún soporte material tangible, como lo fueron el oro y
la plata durante siglos.
Es conveniente ilustrar esta dualidad mediante un ejemplo: una persona que recibe un salario dedica parte de éste a la satisfacción de sus necesidades inmediatas, esto es, paga la renta, la comida, el hospedaje, etc. Si es
afortunada, la otra parte la guarda como ahorro para satisfacer necesidades
futuras. Esta persona hipotética bien podría ahorrar en mercancías no perecederas (arroz, maíz o cerveza en lata); sin embargo, la gran mayoría de
la gente que ahorra lo hace en bienes financieros. Lo que es más, actualmente cuando el ser humano piensa en riquezas lo hace pensando en fajos
de dólares o, cada vez menos, en monedas de oro y plata, en vez de las pilas de mercancías o múltiples servicios que podría adquirir con el dinero
ahorrado.
Esta dualidad influye sobre el valor del dinero. Por un lado, el valor del
dinero como medio de intercambio se afecta principalmente por la infla-
10.1 Rentabilidad
251
ción y la deflación; por el otro, el valor del dinero como bien se afecta por
las tasas de interés que ofrece el ahorro en diferentes inversiones.
Siguiendo el ejemplo, en un medio con inflación, si la persona mantuviera el mismo salario, su capacidad de adquirir satisfactores inmediatos se
iría reduciendo al mismo ritmo que la inflación y su capacidad de ahorro
menguaría. Si no recibiera un aumento salarial, la persona gastaría su salario lo más rápidamente posible para poder adquirir más mercancías y pagar
más servicios. En otras palabras, en un medio inflacionario el dinero pierde
valor frente a los otros bienes y cada vez se requiere más dinero para adquirir los mismos bienes y servicios, y las personas gastan rápidamente su dinero porque no hay incentivos para ahorrar.
Aunque la deflación es un fenómeno menos común, provoca efectos
contrarios a los que causa la inflación. Si el asalariado en cuestión supiera
que los artículos que consume los va a encontrar más baratos el día o la
semana siguiente, diferiría sus compras en la medida de lo posible. Por ello,
la deflación desalienta los intercambios económicos y fomenta el ahorro.
La deflación puede ser más perniciosa que la inflación, ya que puede llegar
a paralizar la actividad económica.
En cuanto al dinero como un bien sujeto a las leyes del mercado, esto
es un bien que se compra y se vende, de una forma muy simplista uno compra el dinero al ahorrar y lo vende al gastar. Ahora bien, uno puede ahorrar
de diversas maneras. La más simple sería la de mantener el dinero en una
caja fuerte o debajo del colchón. Sin embargo, si uno siguiese esta opción
estaría perdiendo la oportunidad de ganar más dinero si depositara el ahorro en una cuenta bancaria con intereses o en otros instrumentos financieros que más adelante se tratarán y que incluyen la compra de divisas. El
dinero que no se invierte pierde valor, ya que se está dejando pasar la oportunidad de acrecentarlo mediante la ganancia de intereses.
Ahorrar con un tercero implica un acto de fe por parte del ahorrador,
ya que en los tiempos establecidos recibirá los intereses o la plusvalía pactados y recuperará su inversión original. Entonces, entre menos seguridad
tenga el ahorrador de que recibirá su dinero al vencimiento de su inversión,
mayor tasa de interés exigirá para prestarlo. Por esto, la tasa de interés y el
riesgo implícito en una inversión están directamente relacionados. A mayor riesgo, mayor tasa de interés demandará el posible inversionista. Por lo
mismo, en una inversión el riesgo y el rendimiento deben ser evaluados simultánea y cuidadosamente.
Por propósitos didácticos se han separado las dos propiedades del dinero. Pero el dinero es único. Ahora se volverán a integrar mediante el
ejemplo que se ha venido utilizando.
Supóngase que el asalariado tiene en sus manos $100 que puede invertir y que la inflación anual en su país es de 3%. Esto quiere decir que si no
invierte su dinero, en un año los $100 tendrían un poder de compra de
$100
$97.09. Por esto, la tasa de interés que el asalariado debe exigir para
1.03
252
Capítulo 10
Ingeniería económica
su inversión debe ser mayor que la tasa de inflación, ya que de no ser así, le
convendría gastar su dinero en otros bienes. Supóngase que el asalariado
puede invertir en una cuenta de valores que le da 5% de interés anual fijo.
En un año el asalariado entonces tendría $105, que tendrían un poder de
compra de:
$100 1.05
$101.94
1.03
Si se denota como i a la tasa de interés y como s a la tasa de inflación,
entonces r, el resultado de aplicar la siguiente fórmula:
r
1i
1s
1
que se conoce como tasa de interés real. Esta tasa será positiva o negativa
en la medida que la tasa de interés sea mayor o menor que la inflación.
Entonces, para que exista ahorro e inversión en un país debe haber
instrumentos financieros o proyectos de inversión que ofrezcan tasas de
interés reales positivas. En el ejemplo presentado se suponen tasas de interés y de inflación que se pagarán en un año con absoluta certeza. Esto normalmente no es así. Aunque no existe la seguridad absoluta que un interés
o una plusvalía se pagarán al vencimiento —todo puede suceder—, sí existen agentes financieros cuya certeza relativa de pago es mayor que la de los
demás; el gobierno o el banco central de un país son buenos ejemplos de
esto. A la tasa de interés que paga aquel agente financiero que tiene la mayor certidumbre de pago se le conoce como tasa libre de riesgo. La tasa que
paga el gobierno de un país se considera que tiene riesgo soberano. Como se
mencionó, si la tasa y el riesgo están relacionados en forma directa, entonces la tasa libre de riesgo debe ser la menor del mercado. En muchas ocasiones la tasa pactada en una inversión está basada en la tasa libre de riesgo
o en una tasa de referencia más una tasa fija, en este caso se dice que la inversión paga una tasa de interés variable.
Asimismo, puede notarse cómo la tasa de interés es una medida del
precio relativo del dinero. Una divisa considerada como fuerte pagará una
tasa de interés relativamente más baja que una divisa débil. Verbigracia, los
Bonos del Tesoro de Estados Unidos pagan una tasa de interés menor que
la tasa que pagan los Bonos de Desarrollo mexicanos y las inversiones en
francos suizos prácticamente no pagan intereses. La tasa de interés y el
precio del dinero están inversamente relacionados. En forma muy amplia,
la tasa de interés real de un país deberá estar correlacionada con la tasa de
crecimiento económico.
Ahora ya es posible contestar la primera de las preguntas planteadas al
principio de la sección: un proyecto de ingeniería industrial será rentable
en la medida que produzca rendimientos iguales o superiores a los que
ofrezcan instrumentos de inversión con un riesgo semejante emitidos en el
mismo mercado.
253
10.2 Principales medidas de rentabilidad
$105
$5
FIGURA 10.1 Diagrama
de la inversión
$5
$5
$5
$100
10.2 Principales medidas de rentabilidad
Rendimientos financieros: para medir la rentabilidad de un proyecto de ingeniería industrial conviene primero introducir medidas de rentabilidad
financieras, que son más simples de explicar y que, en esencia, son idénticas
a las empleadas en la evaluación de proyectos industriales.
Existen varias formas de medir la rentabilidad de un instrumento financiero. Aquí solamente se presentan las más comunes: el valor presente
neto y la tasa interna de rendimiento.
Ilustrando la materia con un ejemplo sencillo, supóngase que se adquiere un bono con valor nominal de $100 y que paga una tasa de interés anual
de 5% —libre de impuestos— al final de cada año durante cinco años consecutivos. El diagrama de la inversión se muestra en la figura 10.1. Las flechas
por debajo de la línea horizontal denotan inversiones, y las flechas por encima, rendimientos para el tenedor del bono. En general, estas flechas denotan flujos netos de dinero; unas serán negativas si implican erogaciones de
efectivo para el tenedor del bono, o positivas si indican lo contrario.
El espacio entre las flechas indica el periodo entre flujos de efectivo
que, en este ejemplo, es de un año. En el quinto año el tenedor del bono
recibe su inversión original más los intereses del periodo.
Ahora bien, en la fecha de adquisición del bono el valor de los intereses
$5
que se recibirán a fines del primer año tienen un valor descontado de
1.05
$4.76. Esto quiere decir que si estos $4.76 se invirtiesen al principio del
año a una tasa de 5%, se recibirían $5 al final del primer año. De la misma
forma, los intereses que se recibirán al final del segundo año tienen un valor
$5
descontado de
$4.54 al inicio de la inversión, pues si uno invirtiese
1.052
esta cantidad a dos años a una tasa de 5% recibiría $5 al final del segundo año.
En el cuadro siguiente se muestran los flujos descontados de los ingresos correspondientes a la figura 10.1 evaluados al principio de la inversión.
254
Capítulo 10
Ingeniería económica
Año
Flujo
Flujo descontado
1
$5
$4.76
2
$5
$4.54
3
$5
$4.32
4
$5
$4.11
5
$105
$82.27
Obviamente, si se suman estos flujos descontados el valor es $100, la
cantidad que se está invirtiendo.
Más formalmente, si a0, a1, a2,…, an denotan los flujos netos de efectivo,
positivos, negativos o cero, asociados con un proyecto de inversión que
tiene flujos en n periodos iguales, el valor presente neto de la inversión,
evaluada en el periodo cero a una tasa de interés i, se define como:
a0 a1
(1 i)
a2
(1 i)
2
…
an
(1 i)n
La tasa de interés i usada en la fórmula anterior se conoce como tasa
de descuento.
Por la forma en que está planteado el ejemplo, su valor presente neto es
cero. En general, si se aplica la fórmula a un esquema de flujos netos de
efectivo, el valor presente neto descontado a una tasa determinada será positivo si el rendimiento de la inversión excede la tasa de descuento, o negativo si el rendimiento de la inversión es menor que la tasa de descuento.
A aquella tasa de descuento que hace que el valor presente neto de una
inversión sea igual a cero se le conoce como tasa interna de rendimiento o
retorno (TIR). Así, el ejemplo presentado tiene una TIR de 5%, que es la
tasa de rendimiento establecida para el bono.
Ahora se ilustrará el empleo de estas medidas de rentabilidad mediante un ejemplo sencillo. Supóngase que se tiene un presupuesto de $120
para realizar uno de tres proyectos de inversión que tienen diferentes flujos
netos de retorno. Se pide como condición que los proyectos tengan más de
5% de rendimiento. Estos proyectos se muestran en la tabla siguiente. ¿Cuál
de los tres debería realizarse?
Periodo
(años)
Proyecto 1
($)
Proyecto 2
($)
Proyecto 3
($)
0
120
120
120
1
4
14
9
2
5
14
10
3
12
7
7
4
18
9
15
5
131
124
129
10.2 Principales medidas de rentabilidad
255
Si se calcula el valor presente neto descontado a una tasa de 5% de los
tres proyectos se obtienen las cifras de $16.16, $16.64 y $17.10 para el primer, segundo y tercer proyectos, respectivamente. Esto quiere decir que los
tres proyectos tienen una rentabilidad mayor que 5%, por lo que cumplen
con la condición establecida. Asimismo, uno pensaría que el tercer proyecto debería realizarse, pues es el que tiene el mayor valor presente neto.
Empero, si se calcula la tasa interna de rendimiento se obtienen tasas
respectivas de 7.98%, 8.33% y 8.17%. Bajo esta medida el segundo proyecto
debería realizarse y no el tercero, pues el segundo es el de mayor rentabilidad. ¿Existe alguna contradicción entre la tasa interna de retorno y el
valor presente neto? No, ninguna. Para demostrarlo, si se calcula el valor
presente neto de los tres proyectos descontados a la tasa interna de retorno del segundo proyecto —la mayor de las tasas internas— se obtienen
valores presentes netos negativos para el primer y tercer proyectos, y de
cero para el segundo, como era de esperarse. El segundo y tercer proyectos
tienen el mismo valor presente neto si se descuentan a una tasa de 6.9% y,
para tasas mayores que ésta, el segundo proyecto tiene un mayor valor
presente neto.
En resumen, la medida de rentabilidad de un proyecto financiero es la
tasa interna de rendimiento; sin embargo, en la práctica el cálculo del valor
presente neto es más sencillo que el de la tasa interna de rendimiento. El
valor presente neto puede usarse como medida de rendimiento si, como se
vio en el ejemplo anterior, se utiliza como tasa de descuento a la mayor tasa
interna de rendimiento entre las diferentes opciones que se están evaluando. Esta tasa puede ser encontrada fácilmente en forma iterativa.
Como se mencionó en la primera sección, el riesgo de un proyecto financiero debe evaluarse simultáneamente con su rendimiento. La evaluación del riesgo de inversiones financieras es un tema fuera del alcance de
este capítulo. En la vida real, existen empresas especializadas en la medición del riesgo relativo de las inversiones financieras. A estas empresas se
les conoce como empresas calificadoras de riesgo, siendo las más importantes Fitch, Standard & Poor’s y Moody’s Investors Service. Los departamentos de análisis de las principales instituciones financieras también evalúan y publican el riesgo relativo de diferentes inversiones.
Empero, desde un punto de vista pragmático, se puede estimar el riesgo de una inversión asociando distribuciones de probabilidad a los flujos de
efectivo de un proyecto financiero y utilizando el método de simulación
Monte Carlo (véase capítulo 15). Mediante este procedimiento se pueden
estimar las distribuciones de probabilidad de las medidas de rendimiento.
Normalmente sólo se emplean la media y la desviación estándar de las
medidas de rentabilidad para tomar decisiones entre inversiones alternativas, siendo la desviación estándar la medida de riesgo comúnmente utilizada. Se considera que una mayor desviación estándar implica un mayor riesgo en la inversión.
256
Capítulo 10
Ingeniería económica
Ahora bien, si se cuenta con información sobre la distribución de probabilidad de los flujos de efectivo de un proyecto financiero, haciendo uso
de simulación Montecarlo se pueden obtener diversos VPN’s asociados a
diversas probabilidades de ocurrencia, y estimar un VPN esperado1 (VPNE)
como promedio ponderado de un universo de VPN’s, y las probabilidades
de ocurrencia asociadas a cada VPN. Igualmente, se pueden obtener diversas TIR’s para el mismo proyecto, cada una asociada a una probabilidad de
ocurrencia, e igualmente se puede estimar una TIR esperada como promedio ponderado del universo de TIR’s y sus probabilidades de ocurrencia
asociadas.
Rendimiento de un proyecto de ingeniería industrial: con las bases anteriores es posible abordar el tema del cálculo del rendimiento de un proyecto de ingeniería industrial. En teoría, bastaría con establecer claramente
cuáles son los flujos de efectivo correspondientes a un proyecto para calcular su TIR. Si este valor excediera una tasa de rendimiento predeterminada,
el proyecto se llevaría a cabo. También, de ser necesario, mediante simulación Monte Carlo se podría medir el riesgo de un proyecto de ingeniería
industrial y tomar la decisión de realizar el proyecto solamente en caso que,
además de exceder una tasa de rendimiento predeterminada, se hiciera
dentro de un margen de riesgo razonable.
La aplicación de modelos de análisis financiero más complejos, como es
el caso de la valuación de opciones financieras, puede también servir de base para la valuación de proyectos industriales, en donde un proyecto pudiera abandonarse y luego reanudarse, dependiendo de ciertas condiciones.
En la práctica existen problemas de toda índole en la aplicación de métodos financieros para la evaluación de la rentabilidad de proyectos industriales. Existen serios problemas en la determinación de:
•
•
•
Los flujos netos de efectivo asociados con un proyecto.
Una tasa de descuento adecuada para el proyecto.
La duración y el vencimiento de un proyecto industrial.
Sin profundizar en el tema, considérese como ejemplo el lanzamiento de
un nuevo producto. Aunque es posible tener una buena estimación de las
inversiones requeridas, el pronóstico de las ventas y de los gastos operativos frecuentemente se desvían bastante de la realidad, ya que en la determinación de los pronósticos intervienen variables fuera del control del
practicante. Si es dif ícil pronosticar las variables pertinentes en países con
relativa estabilidad económica, fiscal, política y laboral, es imposible hacerlo en países en donde esto no sucede y las tasas de interés, el tipo de cambio, la inflación y el costo de los energéticos son variables punto menos que
impredecibles.
1
Para mayor detalle sobre el uso de VPNE, consulte Flaig, J. J. (2005), “Improving Project
Selection Using Expected Net Present Value Analysis”, en Quality Engineering, vol. 17, p. 538.
10.3 Fuentes de recursos financieros
257
También, aunque pudiera decirse que un proyecto financiero puede
adolecer de los mismos problemas que los apuntados anteriormente, en un
proyecto de ingeniería industrial estos problemas se magnifican, ya que los
proyectos industriales normalmente están ligados a proyectos financieros,
como se verá en la siguiente sección.
Esto no quiere decir que las medidas financieras no deben emplearse
en proyectos industriales. Todo lo contrario. La disciplina que impone realizar pronósticos de mediano y largo plazos de los ingresos y gastos asociados con un proyecto industrial, marcan la diferencia en muchas ocasiones,
por lo que es recomendable efectuar análisis financieros de los proyectos
antes de realizarlos.
Al final del capítulo se muestra un ejemplo de proyecto industrial y su
valuación.
10.3 Fuentes de recursos financieros
Fuentes propias y ajenas: un proyecto de ingeniería industrial requiere recursos financieros para su realización y generar recursos financieros. En
esta sección se tratará el tema de las fuentes de recursos necesarios para
financiar —o fondear, como se dice comúnmente— un proyecto industrial.
En términos generales, independientemente de la fuente del financiamiento, cuando se habla de un financiamiento o de un préstamo se deben
considerar cuatro factores de importancia:
•
•
•
•
El monto del financiamiento.
El plazo de recuperación del préstamo.
La tasa del financiamiento.
Las garantías de cumplimiento del préstamo.
Cada proyecto presentará características diferentes en cuanto a los factores
mencionados, como se podrá apreciar más adelante. En cuanto a las fuentes de financiamiento, los recursos necesarios para financiar un proyecto
de ingeniería industrial pueden provenir de múltiples orígenes. Aquí solamente se mencionan los más comunes e importantes.
En términos amplios, las fuentes de fondos se pueden dividir en dos:
propias y ajenas.
Las fuentes propias pueden provenir de recursos de la misma empresa
que realiza el proyecto, o de los accionistas de la empresa mediante aportaciones específicas por aumentos de capital o por préstamos directos. En
muchas ocasiones el fondeo propio es el preferido, ya que los rendimientos
se quedan totalmente en la empresa y se maximiza la privacidad de las operaciones. Además, pueden existir ventajas fiscales derivadas de la reinversión de utilidades. Asimismo, la determinación del monto, el plazo, la tasa
y las garantías de los financiamientos propios son relativamente sencillos y
expeditos.
258
Capítulo 10
Ingeniería económica
Sin embargo, existen ocasiones en que el tamaño de la inversión no
permite que el financiamiento pueda ser cubierto con fuentes propias y se
recurre a fuentes ajenas. Pero éste no es el único caso, ya que acudir a fuentes externas de financiamiento también tiene sus ventajas, entre las cuales
solamente se mencionan tres.
La primera es meramente financiera: realizar un proyecto exitoso con
dinero totalmente ajeno tiene una tasa de rendimiento infinita para los accionistas de la empresa. La segunda: tener que cumplir con obligaciones
ante terceros, generalmente introduce una mayor disciplina en la ejecución
y control de un proyecto. Por último, el uso oportuno del crédito puede
tener una ventaja competitiva muy importante, ya que, llevado al extremo,
el crédito que una empresa no utiliza puede ser empleado en su perjuicio
por sus competidores.
En forma muy amplia, las fuentes ajenas de financiamiento se pueden
dividir en tres tipos, y se tratarán en los apartados siguientes:
•
•
•
Financiamiento de clientes y proveedores.
Financiamiento de instituciones de crédito.
Financiamiento del mercado.
Financiamiento de clientes y proveedores: financiarse a través de los clientes
y, sobre todo, de los proveedores es una forma muy común de obtener fondos para la realización de un proyecto. En el primer caso, una empresa
puede obtener fondos de uno de sus clientes mediante un contrato por el
que la empresa financiada se obliga a vender su producto con descuento al
cliente por un periodo establecido. Esta forma de financiamiento sucede
frecuentemente en aquellos casos en que el cliente busca un nuevo producto de su proveedor y, por ello, le ayuda a producirlo. El monto, el plazo y la
tasa del financiamiento se acuerdan entre las partes. El cumplimiento de las
ventas futuras, en plazos y cantidades, normalmente se asegura mediante
fianzas que expiden instituciones de seguros y fianzas.
El financiamiento de los proveedores es mucho más común, ya que es
una forma en que éstos pueden apoyar sus propias ventas. Como ejemplo,
los proveedores de equipo industrial normalmente ofrecen atractivos planes de financiamiento para colocar sus equipos en las empresas, debido a
que el costo relativamente alto de los equipos impide su adquisición directa por las empresas. En este tipo de financiamiento la empresa adquiere el
equipo de su proveedor y lo paga a plazos a una tasa negociada entre las
partes. En garantía de cumplimiento del préstamo queda el propio equipo
y éste se asegura contra daños surgidos en su operación. Es común que la
empresa financiada también se comprometa a seguir un programa de mantenimiento establecido por el proveedor.
Es importante hacer notar que muchas empresas proveedoras de equipo cuentan con sus propias empresas financieras que apoyan sus ventas. El
ejemplo más notorio es el caso de General Electric (GE), cuyo brazo finan-
10.3 Fuentes de recursos financieros
259
ciero (GE Capital) tuvo tanto éxito que se conformó como organismo independiente de la empresa madre. Asimismo, casi todos los países industrializados cuentan con organismos financieros públicos de apoyo a la
exportación que otorgan préstamos blandos (subsidiados) a las empresas
de su país, para promover la venta de bienes y servicios en otros países,
como es el caso de Bancomext, en México, o del Eximbank de Estados Unidos. El financiamiento obtenido de los bancos de fomento a la exportación
por las empresas proveedoras se transfiere a bajo costo a sus clientes.
Un problema muy común derivado de préstamos de proveedores extranjeros es que los préstamos normalmente se realizan en sus propias divisas, por lo que la empresa deudora debe contemplar algún mecanismo de
cobertura que limite el riesgo implícito de una devaluación.
Financiamiento de instituciones de crédito: por institución de crédito
aquí se entiende a aquella empresa que presta fondos propios, sin importar
cómo los haya captado, como es el caso de un banco comercial. El fondeo a
través de estas instituciones es quizás el más empleado de todos los financiamientos externos. En este tipo de préstamos la institución de crédito y el
deudor potencial analizan el proyecto industrial y su viabilidad económica
para determinar el monto del préstamo y los plazos y formas de pago. El
tiempo destinado a estos estudios puede ser relativamente largo y depende,
en la mayoría de casos, de la rentabilidad del proyecto, de la existencia de
una buena relación entre la institución de crédito y su cliente, y de la calidad crediticia del propio cliente. La aprobación de un crédito normalmente
la realiza la institución mediante comités establecidos ex profeso. Asimismo, el seguimiento del proyecto se realiza en forma colegiada entre la institución y el deudor, por lo que el acreedor puede llegar a involucrarse en la
operación del deudor.
Dependiendo del activo utilizado como garantía del financiamiento se
pueden distinguir diferentes tipos de préstamos.
•
•
•
•
Préstamos quirografarios, son préstamos sin garantía específica; la
garantía es la firma del deudor. (No son muy del agrado de la banca
comercial.)
Préstamos avalados, son préstamos de cuyo cumplimiento responde un tercero, que demuestra tener los activos suficientes para cubrir el riesgo del préstamo. El tercero puede ser una persona f ísica
o una empresa.
Préstamos con garantía en acciones de la empresa, este tipo de
préstamo puede ser utilizado cuando las acciones de la empresa
cotizan en la bolsa de valores y tienen bastante liquidez. Las acciones se depositan en un fideicomiso y normalmente son regresadas
al deudor conforme se va liquidando el crédito.
Arrendamientos financieros, cuando la garantía es uno o varios
equipos propiedad de la empresa que recibe el crédito. Los equipos
se ceden a la institución de crédito por el monto del crédito y ésta
260
Capítulo 10
•
•
•
Ingeniería económica
se los arrienda al deudor por el tiempo y a la tasa pactada entre las
partes.
Préstamos hipotecarios, cuando la garantía es el terreno o las naves
industriales utilizados en el proyecto industrial. Como en el caso
anterior, la institución de crédito es dueña del activo hasta la terminación del crédito.
Operaciones de factoraje, cuya garantía son las cuentas por cobrar
de la empresa y, en esencia, consisten en que la institución de crédito compra con descuento los cobros futuros de la empresa acreditada. Existen variaciones de este tipo de préstamo que están fuera del alcance de este capítulo.
Operaciones de almacenaje, cuando la garantía son los inventarios
de la empresa. Éstos se almacenan en un local adecuado y son liberados cuando se liquida el préstamo. Este tipo de operación sucede
con poca frecuencia en México.
Aunque las instituciones de crédito modernas engloban todos los tipos de
préstamo, hasta hace pocos años existían instituciones especializadas en
cada uno de los tipos mencionados. No sobra decir que en una operación
de crédito pueden utilizarse diferentes tipos de garantía.
Asimismo, como en el caso de bancos de fomento a la exportación, en
muchos países también existen organismos financieros públicos de fomento a la industria, cuya función es proveer de fondos relativamente baratos
para realizar proyectos, y así promover la industrialización. El fondeo puede ser directo o indirecto. En el segundo caso se habla de bancos de segundo
piso, cuando el banco de fomento a la industria presta los fondos a las instituciones de crédito para que éstas, a su vez, los canalicen a las empresas
industriales para la realización de los proyectos más rentables. En algunas
ocasiones el banco de fomento se constituye como aval de las empresas en
la ejecución de un proyecto. En otras, el banco de fomento sigue las instrucciones del gobierno y promueve un sector económico específico. En
México los principales bancos de fomento son Nafinsa y Banobras.
Financiamiento del mercado: en este tipo de financiamiento la empresa
que realiza el proyecto industrial consigue los fondos directamente de inversionistas interesados en lograr un buen rendimiento en sus inversiones,
sin que exista una institución de crédito de por medio. Existen instituciones
que se dedican a buscar proyectos rentables para su cartera de inversionistas
o que buscan inversionistas para proyectos identificados como rentables. A
estas empresas se les conoce como bancos de inversión y no deben confundirse con los bancos comerciales, puesto que, normalmente, el banco de
inversión no presta fondos propios.
El financiamiento del mercado puede dividirse ampliamente en financiamiento público y financiamiento privado. En el primero, como su nombre lo indica, la invitación a participar en el financiamiento es abierta al
10.3 Fuentes de recursos financieros
261
público inversionista en general, en tanto que en el segundo, solamente un
grupo selecto de inversionistas participa en la operación financiera.
Los mercados públicos están regulados y vigilados por las autoridades
financieras de un país. Asimismo, para que una empresa pueda conseguir
fondos del público debe estar inscrita en un mercado o bolsa de valores.
Esta inscripción solamente puede ser lograda si la empresa cumple con
calificaciones crediticias bastante estrictas y se compromete a publicar sus
estados financieros e informes de actividades en forma periódica.
Aunque, en principio, cualquier persona podría financiar a una empresa a través del mercado público, en la práctica los mayores participantes del
mercado son los fondos de pensiones, los fondos de inversiones, las empresas de seguros y las tesorerías de las instituciones de crédito. Esto es debido
a que su tamaño relativo les permite adquirir los financiamientos en mejores condiciones que un pequeño inversionista.
Ahora bien, en forma muy amplia se pueden distinguir dos mercados
en donde una empresa puede buscar fondeo para sus proyectos a través de
la emisión de instrumentos financieros: el mercado de dinero (o mercado
de bonos) y el mercado de capitales (o mercado de acciones). En principio,
la diferencia entre estos mercados radica en la naturaleza de los instrumentos de inversión que se operan en ellos, aunque esta diferencia puede ser
difusa, pues existen instrumentos financieros que pueden tener varias características a la vez. Por ejemplo, un bono convertible en acciones no puede ser clasificado de forma unívoca en ninguno de los mercados mencionados. Por esto, más que concentrarse en entender los diferentes mercados de
valores, es mejor entender las características de los instrumentos de inversión de los que podría valerse una empresa para financiar sus proyectos. En
el mismo tenor, como el enfoque de esta sección es hacia la consecución de
financiamiento, solamente se hará referencia a operaciones del mercado
primario. Estos temas se verán en la siguiente sección.
Instrumentos financieros: existe una gran variedad de instrumentos financieros; aquí solamente se mencionarán los más comunes que utilizan
las empresas para obtener financiamiento para sus proyectos industriales y
otros de interés meramente académico.
Papel comercial. Históricamente, es uno de los instrumentos más antiguos para obtener financiamiento. Es un instrumento de deuda por el que
la empresa emisora se obliga a pagar el préstamo más los intereses en un
plazo fijo, normalmente corto. El papel comercial comenzó como una forma en que una empresa que necesitaba recursos de corto plazo los obtenía
de otra empresa con la que tenía lazos comerciales. Como las transacciones
se realizaban entre empresas conocidas, la garantía de pago del papel comercial era la propia empresa emisora. Por esto, el papel comercial comúnmente paga intereses relativamente altos.
Bonos corporativos. Son papeles de deuda emitidos a diferentes plazos,
con pagos de intereses en plazos fijos (el llamado corte de cupón), a tasa fija
262
Capítulo 10
Ingeniería económica
o variable, con amortización del capital al vencimiento. Un bono cupón cero
(bono sin cupones) paga los intereses al vencimiento del bono. Normalmente la garantía de los bonos es la propia empresa emisora, por lo que
pagan intereses relativamente altos. Asimismo, para ayudar a la credibilidad de la empresa emisora, comúnmente las emisiones son evaluadas por
las empresas calificadoras de riesgo mencionadas en la sección 10.1 de este
capítulo. Existen programas promovidos por las propias bolsas de valores
para que los instrumentos emitidos por diferentes empresas tengan las
mismas características en cuanto al plazo, pago y tipo de intereses, y otras
características que facilitan su aprobación por las autoridades reguladoras
del mercado y la operación de los instrumentos en el mercado secundario.
Bonos redimibles. El emisor de estos bonos se reserva la facultad de
pagar, total o parcialmente, el principal de la emisión, cuando más le convenga, dentro del plazo de la emisión, que es relativamente largo. Este tipo
de instrumento es muy popular en mercados desarrollados y se utiliza
cuando existe una gran volatilidad en las tasas de interés y en los tipos de
cambio.
Bonos con garantía. Este es un tipo de bono en el cual existen garantías
específicas para el pago de los bonos, como pueden ser garantías hipotecarias, de cuentas por cobrar u otras. Estas garantías normalmente quedan
depositadas en un fideicomiso establecido ex profeso. Este financiamiento
es usado por empresas con menor calidad crediticia.
Bonos convertibles. En este tipo de bonos la amortización final del principal es en acciones de la propia empresa emisora de los bonos. Si una empresa conf ía que su valor crecerá en el plazo de la emisión, puede emitir un
bono convertible pagando intereses relativamente menores que otros bonos no convertibles. Existen variaciones sobre este instrumento, cuya presentación está fuera del objetivo de este capítulo.
Acciones. Este es un instrumento de financiamiento que no tiene plazo
ni tasa y cuya garantía es la parte de capital de la empresa que representa
las acciones emitidas. Un tenedor de una acción tiene derecho a recibir
dividendos si la empresa emisora decide repartirlos. Hay que distinguir entre la emisión original de acciones, llamada colocación primaria, y las operaciones de compraventa de las acciones ya emitidas en el mercado secundario, ya que es en la primera en donde la empresa obtiene fondos para sus
proyectos. La determinación del valor de las acciones en una colocación
primaria es sumamente compleja y depende de muchos factores, cuya presentación está fuera de los alcances de este capítulo.
Acciones preferentes. Las acciones preferentes son acciones que pagan
un dividendo preestablecido, por lo que su comportamiento se asemeja al
de un bono de largo vencimiento.
Financiamiento privado: en vez de acudir a las instituciones bancarias o
a los mercados públicos de valores, una empresa puede financiarse mediante la colocación privada de deuda o de capital. Aunque el financiamiento
10.4 Estudio de caso
263
privado requiere cubrir una menor cantidad de requisitos y trámites que el
financiamiento público, normalmente es más caro financieramente.
El financiamiento privado es comúnmente usado por empresas que desean mantener un alto grado de confidencialidad en sus operaciones, o por
empresas de creación reciente que no tienen acceso al crédito bancario ni
al mercado de valores.
Para el caso de financiamiento vía capital, existen empresas especializadas en proveer de capital a empresas nuevas por un tiempo limitado bajo
condiciones bastante estrictas de recuperación del capital invertido. A estas compañías se les conoce como empresas de capital de riesgo, y son muy
comunes en países con mercados de capital relativamente desarrollados y
en donde una innovación tecnológica es realizada por una empresa de reciente creación.
Asimismo, en muchas ocasiones son los propios directivos de una empresa los que acuerdan qué parte de su ingreso salarial se quede en la empresa en forma de cuentas por pagar que pueden convertirse en acciones.
10.4 Estudio de caso
Los conceptos presentados en este capítulo se ilustran a través de un estudio de caso: la valoración de una panadería localizada en Zumpango, Estado de México. El estudio presentado en esta sección se basa principalmente en el trabajo de investigación reportado por Roberto Apáez en 2012, con
ciertos ajustes para fines didácticos.
Estudio de caso: panadería El Fortín
Algunos supuestos y antecedentes
Con el presente estudio de caso se pretende explicar, de manera práctica, la
teoría financiera detrás de las medidas de rentabilidad descritas en las secciones anteriores. De la misma forma, mediante el caso se explican alternativas de fuentes de financiamiento para un proyecto real.
La panadería que se utiliza como ejemplo se llama El Fortín y se ubica
en Zumpango, Estado de México, dentro de un desarrollo habitacional proyectado para tener 9500 casas. La información histórica de El Fortín que se
utiliza comprende desde la fecha de inicio de operaciones, julio de 2007,
hasta junio de 2011, con lo cual se tiene información de 48 meses de operaciones y datos reales que se pueden utilizar para la valuación por realizar.
Medidas de rentabilidad: ¿Se tiene un negocio rentable?
Se cuenta con $100 para invertir en un proyecto. Se sabe que la tasa de interés real que se puede obtener en el banco es de 3% anual, con una inflación del 3.5% anual. Coincidentemente, la inversión necesaria para iniciar
operaciones en El Fortín es de $100, y se espera recibir flujos netos anuales
de $6. Considerando lo anterior, ¿es recomendable invertir en El Fortín?
264
Capítulo 10
Ingeniería económica
Se debe determinar primero la tasa de rendimiento de El Fortín. Si se
esperan flujos anuales netos de $6 y se tiene una inversión de $100, se puede calcular una tasa de rendimiento anual de 6%. Parece ser que dicha inversión sería más rentable que depositar el dinero en el banco. Sin embargo, para poder comparar dicha tasa de rendimiento con la tasa de interés
del banco, hay que poner ambas tasas en términos comparables. La tasa de
interés del 3% anual del banco es una tasa real, mientras que la tasa de rendimiento del 6% anual de El Fortín es una tasa nominal, que no ha sido
ajustada por la inflación, por lo cual no son comparables.
Usando la fórmula de la sección 10.1, se puede calcular la tasa de rendimiento real de El Fortín, que sería igual a (1 0.06)/(1 0.035) 1 2.42%, con lo cual se puede concluir que El Fortín no es tan rentable como
podría parecer inicialmente.
Con la información histórica que se tiene, se pueden observar varios
aspectos: 1. los flujos anuales netos de El Fortín son variables e incrementales; 2. la inversión necesaria para operar El Fortín no sólo corresponde a
la inversión inicial, sino que requiere de inversión adicional en el tiempo, y
3. El Fortín parece ser mucho más rentable que el 2.42% real del ejemplo
anterior.
La inversión inicial en El Fortín fue de $4 500 000 y se han hecho contribuciones de capital adicionales por un total de $725 000. En el periodo
comprendido entre julio de 2007 y junio de 2008 (12 meses), se tuvo un
flujo neto negativo, con una pérdida de $328 000. Considerando como inversión total la suma de $4 500 000 y $725 000 se tiene una inversión de
$5 225 000 y un flujo negativo anual de $328 000 para el primer año, lo cual
resulta en una tasa de rentabilidad negativa de 6.28% nominal.
En el periodo comprendido entre julio de 2008 y junio de 2009 se tuvo
un flujo positivo neto de $125 000, lo cual resulta en una tasa de rendimiento
nominal de 2.39%. Considerando una inflación para ese periodo de 3.5%, se
tiene entonces una tasa de rendimiento real negativa de 1.07%. Aun teniendo una utilidad de $125 000 se tiene un rendimiento real negativo. Para el
tercer año de operación se tiene una utilidad de $843 000, que resulta en
una tasa de rendimiento anual nominal de 16.13% y una tasa de rendimiento anual real de 12.20%. Para el cuarto año de operación se tiene una utilidad de $1 134 000, que resulta en una tasa de rendimiento anual nominal
de 21.70% y una tasa de rendimiento anual real de 17.58%.
Con lo anterior, podría entonces concluirse que El Fortín es un negocio
rentable, pero, ¿lo es realmente? La decisión no es tan simple y no debe basarse solamente en una tasa de rendimiento. No es lo mismo un negocio que
resulta en una tasa de rendimiento anual real de 20% en el primer año,
que uno que resulta en una tasa de rendimiento anual real de 20% en el
décimo año. El tiempo importa, y para incorporar el tiempo en análisis de
rentabilidad existen otras herramientas, como el VPN o la TIR, que se describieron en las secciones anteriores.
265
10.4 Estudio de caso
Considerando los flujos históricos de El Fortín, y asumiendo que la inversión de $725 000 se hace en el segundo año, se puede entonces calcular
un VPN y una TIR con los siguientes flujos, utilizando distintas tasas de
descuento para el VPN:
Año 1
Inversión
Utilidad
Flujo
Año 2
Año 3
Año 4
4 500 000
725 000
328 000
125 000
843 000
1 134 000
ⴚ4 828 000
ⴚ600 000
843 000
1 134 000
Tasa de descuentos
VPN
50.00%
$12 832 000
33.35%
$0
5.00%
$3 371 437
10.00%
$3 477 063
20.00%
$3 405 278
–
–
Se puede entonces observar que la tasa de descuento que hace que el
VPN sea igual a cero es 33.35%, lo cual parece significar que la TIR del
proyecto es 33.35%, que intuitivamente sugiere que el proyecto no es rentable, aun cuando se había determinado previamente que sí parecía serlo.
Evidentemente, el análisis anterior tiene deficiencias y es relevante entenderlas. Es común que un proyecto operativo como una panadería requiera de un periodo mayor a cuatro años para poder ser valuado adecuadamente. Si bien existen proyectos cuya duración está determinada y
pueden ser cuatro años o menos, generalmente en esos casos existiría una
venta del proyecto a un tercero, y dicho valor de venta debería ser considerado en los flujos por ser descontados para poder calcular un VPN o una
TIR correctos del negocio. Sin embargo, en la mayoría de casos un proyecto operativo se quiere evaluar a “largo” plazo, ya sea porque no se sabe cuál
sería el valor de venta en un año determinado, o bien porque no se quiere
vender el negocio en el corto plazo.
Dependiendo de la tasa de descuento que se use, los flujos lejanos en el
tiempo tendrán mayor o menor impacto en el cálculo del VPN, pero como
regla general, con una tasa de descuento positiva, los flujos lejanos tendrán
un impacto menor en el cálculo del VPN, pues están siendo descontados
por más periodos, y en esa medida, no será razonable descontar flujos de 50
o 100 años en el futuro, pero quizá 10 o 20 años sí sea un periodo razonable,
dependiendo del negocio en cuestión.
Consideremos entonces 10 años para calcular el VPN de El Fortín, así
como su TIR. Pero surge un problema, no se tienen 10 años de información
histórica. Éste es el problema más común al querer valuar un negocio o
266
Capítulo 10
Ingeniería económica
proyecto: no se tienen flujos para valuar, pues el negocio es un plan, no una
realidad, y se tienen que proyectar dichos flujos, para lo cual generalmente
resulta útil modelar el proyecto en alguna hoja de cálculo, como lo puede
ser Excel.
Existen dos métodos generales para proyectar flujos:2 subjetivos y objetivos. Un método subjetivo se basa en el juicio humano y uno objetivo se
basa en el análisis de datos.
Ahora bien, el problema para valuar 10 años de El Fortín persiste y se
resuelve de la siguiente manera. Se utilizará un formato similar a un estado
de resultados, pero con flujos financieros. Para esto, se requiere contar de
forma anual con: 1. las ventas, 2. los costos de ventas, 3. los gastos de producción (sueldos del área de producción, los impuestos y las contribuciones correspondientes, costos asociados a producción por conceptos de
electricidad, agua y luz, y el mantenimiento de la maquinaria de producción), 4. los gastos de venta (sueldos del área de ventas, los impuestos y las
contribuciones correspondientes, y otros gastos asociados) y 5. los gastos
administrativos (sueldos del área administrativa, los impuestos y las contribuciones correspondientes, teléfono, papelería, costos asociados a equipo
de cómputo, etc.), con todo lo anterior se puede obtener de manera anual
un flujo neto antes de impuestos, lo que será la información de entrada
para la valuación3 con VPN.
Utilizando ciertos supuestos, se generan entonces los siguientes flujos
anuales y sus correspondientes VPN’s, en función de diversas tasas de descuento:
Año 1
Inversión
Utilidad
Flujo
Año 2
4 500 000 725 000
328 000
Año 3
Año 4
Año 5
Año 6
Año 7
Año 8
Año 9
Año 10
–
–
–
–
–
–
–
–
125 000 843 000 1 134 000 1 425 000 1 716 000 2 007 000 2 298 000 2 589 000 2 880 000
ⴚ4 828 000 ⴚ600 000 843 000 1 134 000 1 425 000 1 716 000 2 007 000 2 298 000 2 589 000 2 880 000
Tasa de descuentos
VPN
10.00%
$2 686 683
15.00%
$954 632
18.99%
$0
25.00%
$970 348
30.00%
$1 494 207
2
Para ver más información sobre proyección de flujos, consulte Nahmias, S. (2001). Production and Operations Analysis, 4a. Ed., McGraw-Hill/Irwin, Nueva York.
3
Para mayor detalle sobre valuación financiera utilizando VPN, VPNE u opciones reales,
puede consultarse Apáez, R. (2012). Comparación de métodos de valuación financiera: flujos
descontados y opciones reales. ITAM, Ciudad de México.
10.4 Estudio de caso
267
Se puede ahora observar que la tasa interna de retorno de El Fortín es
18.99% y que el proyecto parece ser rentable de nuevo. El tiempo importa,
tanto el tiempo en el que se dan los flujos, como el tiempo de valuación que
se considera.
Fuentes de financiamiento: ¿Cómo fondear el proyecto?
Ahora bien, en cuanto a alternativas de fuentes de financiamiento para El
Fortín se refiere, este proyecto inicialmente se fondeó haciendo uso de
capital propio y de un préstamo otorgado por una institución financiera.
Posteriormente, ya en la operación, el proyecto también ha hecho uso de
financiamientos con proveedores y de arrendamientos financieros. Por un
lado, los proveedores han otorgado a El Fortín entre 30 y 60 días para liquidar el costo de las materias primas, periodo durante el cual se procesa la
materia prima, se hace pan, se vende, se cobra al momento de la venta, y
con dicha cobranza se paga la materia prima. Por otro lado, El Fortín tiene
expendios y clientes a quienes tiene que llevar el pan a domicilio, para lo
cual requiere de dos vehículos. En vez de comprar de contado esos vehículos con capital propio, se hizo uso de esquemas de arrendamientos financieros para obtener los vehículos sin desembolsar el 100% de su valor en el
día 1.
En la evaluación de la rentabilidad de un proyecto, tomar en cuenta los
posibles financiamientos a los cuales se puede tener acceso es importante,
pues la rentabilidad de un proyecto varía en función de los financiamientos
que pueda tener de manera relevante.
Regresando al ejemplo numérico de El Fortín, si se considera ahora que
$2 000 000 de la inversión inicial en realidad fueron obtenidos con financiamiento y que $500 000 de la inversión realizada en el segundo año en realidad fueron cubiertos mediante un arrendamiento financiero, se puede ver
que tanto el VPN como la TIR del proyecto cambian.
Para fines del ejercicio, consideremos que la tasa de interés anual del
préstamo de $2 000 000 es de 10% anual nominal sobre saldos insolutos, y
que el principal (los $2 000 000) se amortizan en un periodo de ocho años
de manera lineal, con lo cual, cada año El Fortín tiene que pagar al banco
$250 000 de principal, más los intereses sobre los saldos insolutos. Igualmente, para fines del arrendamiento fi nanciero, asumamos que el arrendamiento financiero tiene un costo nominal anual de 15% para El Fortín,
y que el principal se amortiza en un periodo de cinco años, de tal forma
que durante dichos cinco años El Fortín tiene que hacer pagos iguales de
$149 158 (el primer año, la mayor parte de ese pago será por intereses y
una pequeña parte corresponderá a pagos de principal. Conforme el principal va disminuyendo, los intereses disminuyen y el pago de principal
aumenta).
Considerando lo anterior, se tienen entonces los siguientes flujos, y sus
correspondientes VPN’s y TIR:
268
Capítulo 10
Año 1
Año 2
Año 3
Año 4
Año 5
Año 6
Año 7
Año 8
Año 9
Año 10
–
–
–
–
–
–
–
–
Inversión 4 500 000 725 000
2 000 000 450 000 425 000 400 000 375 000 350 000 325 000 300 000 275 000
Préstamo
Arrendamiento
financiero
Utilidad
Flujo
Ingeniería económica
–
328 000
5000 000 149 158 149 158 149 158 149 158 149 158
–
–
–
–
125 000 843 000
1 134 000 1 425 000 1 716 000 2 007 000 2 298 000 2 589 000 2 880 000
ⴚ4 828 000 ⴚ600 000 843 000
1 134 000 1 425 000 1 716 000 2 007 000 2 298 000 2 589 000 2 880 000
Tasa de descuentos
VPN
10.00%
$2 686 683
15.00%
$1 209 173
21.97%
$0
25.00
$346 539
30.00%
$762 631
Se puede entonces observar que la TIR del proyecto ahora es de 21.97%,
que es mayor al 18.99% que se tenía sin los financiamientos. Como regla
general, si un financiamiento tiene un costo menor a la TIR de un proyecto,
al usar ese financiamiento para ese proyecto en particular la rentabilidad
del mismo aumentará. Por el contrario, si el costo del financiamiento es
mayor a la TIR del proyecto, la rentabilidad de dicho proyecto bajará.
Si bien la rentabilidad es importante, no es el único factor que debe
considerarse al decidir si usar o no un financiamiento. Como se explica en
secciones anteriores, existen diferentes esquemas de financiamiento, con
diferentes esquemas de garantías, y consecuentemente diferentes niveles
de riesgo asociados. Aun cuando se tenga la alternativa de tomar un financiamiento “barato” que mejore la rentabilidad del proyecto, si la garantía de
dicho préstamo es su casa, es posible que decida no arriesgar ese patrimonio, y la seguridad de tener una casa, a pesar de que financieramente hablando el préstamo sea atractivo. Por el contrario, aun cuando un préstamo
sea más caro que la rentabilidad del proyecto, se puede tomar la decisión de
usar dicho préstamo si es la única forma de llevar a cabo el proyecto, pues
aun cuando sea menos rentable el proyecto, puede seguir siendo más rentable que la alternativa de no hacerlo.
Anualidades y perpetuidades
Otros conceptos financieros útiles para la valuación de un proyecto son las
anualidades o las perpetuidades.
269
10.4 Estudio de caso
Puede darse el caso en el que se pretenda invertir en un proyecto del
cual se espere obtener un ingreso periódico fijo, como puede ser comprar
un departamento para rentarlo posteriormente, o bien comprar un bono o
certificado federal que pague dividendos periódicos fijos. Proyectos de esta
naturaleza pueden ser valuados mediante el concepto de anualidad utilizando la siguiente ecuación:
VP(A) A
i
* c1 1
(1 i)n
d
Donde VP(A) es el valor presente de la anualidad en cuestión, A el pago
periódico que se espera recibir, i la tasa de descuento por periodo y n es el
número de periodos durante los cuales se espera recibir dicho pago.
De la misma forma, existen diversos proyectos de inversión de los cuales se pueden esperar pagos periódicos pero que tengan una tasa de crecimiento (o decremento) fija por periodo. Es el caso cuando se tiene un
edificio que se renta a una empresa a cambio de un pago anual, y que dicho
pago se incremente de manera anual por la inflación. Lo mismo podría
suceder con el departamento en renta o el bono federal, y para valuar proyectos de esa naturaleza se puede utilizar la siguiente ecuación:
VP(A) A
ig
* c1 a
1+g
(1 i)
n
b d
Donde VP(A) es el valor presente de la anualidad en cuestión, A el pago
periódico que se espera recibir, i la tasa de descuento por periodo, g la tasa
de crecimiento (o decremento, también llamado gradiente) que se espera
por periodo y n es el número de periodos durante los cuales se espera recibir el pago.
Otra situación puede ser que no exista un periodo determinado o finito
durante el cual se espera recibir el pago periódico. Por ejemplo, la inversión
en un departamento por rentar que no tenga un horizonte de vida definido
o finito, y se quiera valuar esa inversión asumiendo que los pagos se extienden por un tiempo sin definición, se puede valuar como una perpetuidad,
utilizando cualquiera de las siguientes ecuaciones, según sea el caso:
VP(P) VP(P) A
i
A
ig
Donde VP(P) es el valor presente de la perpetuidad en cuestión, A el
pago periódico que se espera recibir de manera indefinida, i la tasa de descuento por periodo y g es la tasa de crecimiento (o decremento) que se espera para cada pago sobre el pago anterior.
Existen proyectos en los cuales los flujos después de 10 o 20 años siguen siendo significativos, y podría darse el caso en el cual al valuar un
270
Capítulo 10
Ingeniería económica
proyecto calculando el VPN de flujos de 10 o 20 años solamente podría
resultar en dejar de lado una parte importante del valor del proyecto en
cuestión, lo cual podría resultar en una toma de decisiones fundada en información incompleta.
No obstante lo anterior, y como se explicó, proyectar flujos futuros
puede ser complejo, y mientras más larga sea la proyección, el grado de
error de la misma tiende a ser mayor. Sin embargo, algo común en la mayoría de negocios es que las operaciones tiendan a estabilizarse, y después de
cierto tiempo los flujos sean hasta cierto punto constantes, con lo cual se
puede asumir que se comportan como una anualidad o una perpetuidad.
Regresando al ejemplo de la panadería, podría entonces asumirse que
a partir del año 10 y en adelante los flujos anuales se comportarán de manera constante, y se deberá valuar el proyecto con una perpetuidad en el
año 10.
Considerando lo anterior, se tienen entonces los siguientes flujos y sus
correspondientes VPN’s y TIR:
Año 1
Año 2
Año 3
Año 4
Año 5
Año 6
Año 7
Año 8
Año 9
Año 10
–
–
–
–
–
–
–
–
Inversión 4 500 000 725 000
2 000 000 450 000 425 000 400 000 375 000 350 000 325 000 300 000 275 000
Préstamo
Arrendamiento
financiero
Utilidad
Flujo
–
328 000
5000 000 149 158 149 158 149 158 149 158 149 158
125 000 843 000
ⴚ4 828 000 ⴚ550 000 268 842
–
–
–
–
1 134 000 1 425 000 1 716 000 2 007 000 2 298 000 2 589 000 2 880 000
584 842
Tasa de descuentos
VPN
A
10.00%
$13 736 259
$28 800 000
15.00%
$5 955 120
$19 200 000
20.00%
$2 600 301
$14 400 000
25.00%
$890 412
$11 520 000
29.55%
$0
$9 745 482
900 842
1 216 842 1 532 842 1 998 000 2 314 000 2 880 000
ⴙA
Se puede entonces observar que la TIR del proyecto ahora es de 29.55%,
que es considerablemente mayor al 21.97% que se tenía sin tomar en cuenta los flujos posteriores al año 10, con lo cual se puede observar que el VPN
anterior dejaba de lado una parte importante del valor del negocio.
Ejercicios propuestos
271
Un ejercicio similar sería asumir que la panadería se vende en el año 10,
con lo cual en vez de sumar el valor de la perpetuidad a los flujos, se sumaría el valor de venta de la panadería, el cual podría ser calculado mediante
una perpetuidad, lo que daría el mismo resultado obtenido, y se entiende
entonces la lógica detrás de las perpetuidades o, en su caso, anualidades.
Se puede hacer el ejercicio que contemple un incremento anual de los
flujos de la panadería por inflación, lo que debería resultar en un valor mayor y una TIR consecuentemente mayor, pero ese ejercicio queda como
prueba para el alumno.
EJERCICIOS PROPUESTOS
1. En la tabla siguiente se muestran los diferenciales en puntos porcentuales de tasas de interés observados en el mercado entre los UMS (United Mexican States, bonos emitidos por
México en los mercados internacionales y denominados en dólares de Estados Unidos) y
bonos del tesoro del país en los meses de mayo a julio de 2005. Se muestran los diferenciales
para bonos emitidos a 3, 5 y 10 años.
2005
3 años
5 años
10 años
4 de mayo
0.95%
1.28%
1.55%
18 de mayo
0.80%
1.13%
1.50%
1 de junio
0.80%
1.10%
1.40%
15 de junio
0.82%
1.20%
1.40%
29 de junio
0.70%
1.05%
1.40%
13 de julio
0.60%
0.95%
1.28%
27 de julio
0.40%
0.99%
1.30%
a) Grafique los datos anteriores usando el eje de las abscisas para el tiempo y el de las ordenadas para los diferenciales de tasas de interés (una serie de datos para cada plazo).
b) ¿Qué conclusiones podría obtener en cuanto a los diferenciales para cada plazo?
c) ¿Qué podría explicar la caída de los diferenciales en todos los plazos?
2. En el cuadro siguiente se muestran las tasas de dos instrumentos fi nancieros emitidos por
el Gobierno Federal y subastados por el Banco de México en los meses de marzo a junio de
2005. El primero es un bono a 10 años y el segundo es un udibono al mismo plazo. El udibono
paga tasa real, esto es, paga rendimientos sobre las llamadas unidades de inversión, las cuales están indexadas a la inflación.
272
Capítulo 10
Emisión
Ingeniería económica
Bono 10 años
Udibono 10 años
Marzo de 2005
10.47%
5.99%
Abril de 2005
10.41%
5.67%
Mayo de 2005
9.84%
5.16%
Junio de 2005
9.56%
4.89%
Julio de 2005
9.37%
4.90%
Inflación implícita
Complete la columna de la inflación implícita, esto es, la tasa de inflación que haría que los
rendimientos de ambos instrumentos fueran equivalentes.
3. Un ingeniero industrial está planeando desarrollar un proyecto de aguas residuales en su
planta del estado de Querétaro. El costo del proyecto se estima en tres millones de pesos, de
los cuales el industrial tiene fondos suficientes para cubrir la mitad de ellos. El industrial se
acerca al banco estatal Banobras y le pide un préstamo de 1.5 millones de pesos, a un año, a
una tasa preferencial. La institución de desarrollo le ofrece fondos al 7.5% anual que ha obtenido del Banco Mundial para proyectos de saneamiento de aguas. ¿Qué subsidios estaría
recibiendo el industrial si se sabe que el gobierno de México se fondea a un año a 9.5% y los
bancos comerciales prestan al 12.5%?
Referencias
Apáez Flores, R. (2012). Comparación de métodos de
valuación financiera: flujos descontados y
opciones reales. Tesina de Ingeniería Industrial,
ITAM.
Copeland T., Koller, T. y Murrin, J. (1990). Valuation:
Measuring and Managing the Value of Companies. McKinsey & Company, Inc.
Dumas, B. y Allaz, B. (1996). Financial Securities:
Market Equilibrium & Pricing Methods.
South-Western College Publishing, Cincinnati,
Ohio, Chapman & Hill.
Jarrow, R. y Turnbull, S. (1996). Derivative Securities.
South-Western College Publishing, Cincinnati,
Ohio, ITP.
Nahmias, S. (2001). Production and Operations
Analysis, 4a. Ed. McGraw-Hill/Irwin, Nueva
York.
Schwartz, E. S. (2001). Patents and R&D as Real
Options. Anderson School of Business, UCLA,
Los Angeles, CA.
CAPÍTULO
11
Administración de
proyectos
AUTORES:
Dr. Omar Romero Hernández
Dr. Guillermo Abdel Musik Asali
11.1 Introducción
11.2 El proyecto
11.3 Planeación de proyectos
11.4 Programación de proyectos con
tiempos de actividades conocidos
11.5 Programación de proyectos con
tiempos de actividades inciertos
11.6 Consideraciones de costos
11.1 Introducción
La ingeniería industrial, en su interés por facilitar la creación eficiente y a
gran escala de productos y servicios, hace del desarrollo de procesos su
principal foco de atención. En sus orígenes, la ingeniería industrial se concentraba principalmente en lograr la estabilidad y máxima eficiencia posible en los procesos de manufactura. En la actualidad, cada vez más los ingenieros industriales se contratan también en empresas de servicios, en
sectores tan diversos como el financiero, el de transporte o el de gobierno,
donde aplican sus conocimientos de procesos de manufactura para mejorar
la generación de servicios. La labor del ingeniero no termina con el diseño
y la instalación del proceso, el cual, una vez en su lugar, la ingeniería trata
de optimizar su operación, buscando lograr una mejora continua por medio del aprendizaje.
En contraste con estas labores repetitivas, existen productos o servicios que se van a realizar solamente una vez. Este tipo de trabajos son los
que se presentan en industrias tales como la construcción, el software o la
consultoría, donde cada cliente requiere de un producto o servicio con características únicas. En estos casos, en lugar de procesos el trabajo tiende a
organizarse en forma de proyectos.
274
Capítulo 11
Administración de proyectos
Si los procesos son el enfoque básico de la ingeniería industrial, ¿por
qué entonces es importante conocer de proyectos? A pesar de que las operaciones diarias de las empresas de manufactura se centran en procesos, un
poco de análisis nos muestra que los proyectos se presentan cada vez con
mayor frecuencia. Si se decide hacer un cambio importante, como la expansión de una línea productiva, lo mejor sería utilizar las técnicas de administración de proyectos. El remplazo de un equipo, el lanzamiento de un
nuevo producto o el rediseño de un proceso son ejemplos de trabajos que
se realizan una vez para un producto determinado y que podemos denominar proyectos.
Podemos ver que el elemento común de todos estos ejemplos es la necesidad de realizar un cambio en la empresa. Así como el análisis de procesos nos da herramientas para lograr la eficiencia y la estabilidad, la administración de proyectos nos proporciona herramientas para lograr el
cambio. La relación entre estabilidad y cambio crea una interdependencia
entre procesos y proyectos: una línea productiva genera la necesidad de
proyectos para realizar cambios; una vez que esos cambios han sido realizados, se diseñan procesos nuevos para garantizar la continuidad en la operación (figura 11.1).
La mayoría de empresas ha realizado proyectos. Sin embargo, a pesar
de su creciente presencia, es común que éstos se realicen arriba de su presupuesto y después del plazo originalmente planeado. En la mayoría de casos estas desviaciones en costo y tiempo son consecuencia de mala planeación, ejecución y control del proyecto.
El hecho de que cada proyecto sea único, no quiere decir que no existan técnicas que nos ayuden a planearlos y controlarlos. En los últimos 50
años se han desarrollado técnicas para realizar proyectos de manera efectiva y eficiente, independientemente de si se trata de un proyecto de software, rediseño o construcción. Estas técnicas se han concentrado en la disciplina administración de proyectos. Este capítulo presenta algunos
elementos de la administración de proyectos, enfatizando las características básicas de un proyecto y los aspectos que se deben considerar al realizar un plan.
cia
miento y eficie
cala
n
Es
Proyectos
ra
s
Procesos
FIGURA 11.1 Relación entre
procesos y proyectos
Ne
c e sid
e
ad es d
me
jo
11.2 El proyecto
275
11.2 El proyecto
Es indispensable tener claro el concepto de proyecto. Diversos libros utilizan diferentes definiciones para un proyecto; tomando los principales elementos de estas definiciones, podemos decir que:
Un proyecto es una serie de actividades ordenadas encaminadas a lograr un objetivo con ciertas especificaciones, en un tiempo dado y con unos
recursos determinados.
Vale la pena resaltar cuatro aspectos importantes de esta definición:
•
•
•
•
El proyecto existe para el logro de un objetivo que algún individuo
y organización quiere alcanzar; es decir, la razón de ser del proyecto es alcanzar dicho objetivo.
El objetivo se va a alcanzar por medio de una serie de actividades
ordenadas, que deben ser definidas en un proceso de planeación.
La definición contiene implícitamente una de las principales características de un proyecto: que tiene un principio y un fin. El
principio es cuando se realizan las primeras actividades, y el fin es
cuando se logra el objetivo.
Por último, se requiere de recursos y tiempo para el logro del objetivo con las especificaciones deseadas.
A continuación se presentan algunos conceptos que nos ayudan a comprender los diferentes aspectos que deben manejarse en la realización del
proyecto.
11.2.1 Cubo del proyecto
Cuando hablamos de administración de proyectos, estamos en realidad hablando del manejo de las diferentes dimensiones relevantes para el logro
del objetivo. Las tres principales dimensiones que se deben considerar son:
tiempo, costo y desempeño. Al principio de un proyecto se deben definir
los niveles que se quieren lograr en cada una de estas tres dimensiones. El
nivel de tiempo se conoce como programa, e indica la duración máxima
que debe tener el proyecto. El nivel definido para los costos se llama presupuesto, y representa el máximo de recursos que pueden ser gastados. El
nivel de desempeño es conocido como las especificaciones del proyecto.
Un esquema clásico para representar estos factores es el cubo del proyecto (figura 11.2). Esta representación consiste en una gráfica tridimensional (x, y, z), donde cada eje representa uno de los tres factores (tiempo, costo
y desempeño). A cada uno de los ejes le asignamos un nivel constante que
deseamos lograr (programa, presupuesto y especificaciones), y a partir de
ese punto generamos un plano paralelo a los ejes. Estos tres planos nos
definen un cubo con respecto al origen. Cualquier punto dentro de este
cubo va a cumplir con los tres requisitos deseados.
276
Capítulo 11
Administración de proyectos
Desempeño
Especificaciones
Programa
FIGURA 11.2 El cubo del proyecto
Tiempo
Presupuesto
Costo
Estas tres dimensiones (tiempo, costo y desempeño) tienen una relación interesante entre sí. Por un lado, cada una se debe planear y controlar
de forma independiente, siempre prestando atención al desempeño de la
variable individual. Por otro lado, es importante reconocer que las dimensiones están íntimamente relacionadas, y que los cambios en una de las
dimensiones repercutirá en al menos una de las otras. Por ejemplo, en un
proyecto bien planeado, una reducción en presupuesto necesariamente
tendrá un impacto en un aumento en el tiempo de ejecución, en una disminución en las especificaciones o en ambos.
Es necesario saber cuál es la prioridad de las dimensiones que se quieren manejar, entendiendo cuáles son las consecuencias de no cumplir con
cualquiera de las tres dimensiones, para definir cuáles son prioritarias. De
aquí se puede deducir que para diferentes proyectos van a existir diferentes
dimensiones críticas y la prioridad dependerá del tipo de proyecto. A continuación se presentan ejemplos que muestran la dimensión crítica.
El desarrollo de un nuevo avión de pasajeros es un caso donde la dimensión crítica son las especificaciones. El desarrollo podría tardarse seis
meses más de lo planeado en salir al mercado, o pudiera ser que se eleven
los costos para poder alcanzar la calidad requerida, pero si se introduce al
mercado un avión con algún problema, va a ser mucho más grave.
Un caso donde los costos son un factor crítico sería la expansión de
una planta, en donde la rentabilidad será el resultado de ajustarse a los costos. Para un producto estacional o de moda, como juguetes o productos
promocionales para una película, el tiempo es el factor más importante,
pues tenerlos en costo y desempeño una semana tarde puede significar la
diferencia entre ganar o perder dinero.
277
11.2 El proyecto
Costo
Curva con todas las
combinaciones posibles
para un nivel de
especificaciones
P1
P2
FIGURA 11.3 Diferentes alternativas de tiempo y costo
T1
T2
Tiempo
Podemos observar que para todos los ejemplos anteriores las tres
dimensiones son importantes. Sin embargo, definir cuál es la dimensión
crítica permitirá tomar mejores decisiones durante la planeación y ejecución.
La figura 11.3 ilustra una forma de pensar estas interrelaciones. Suponiendo un caso en el que las especificaciones fueran la dimensión crítica,
podemos pensar en una variedad de combinaciones de tiempo y costo para
alcanzar dichas especificaciones. La curva representa todas las diferentes
combinaciones de tiempo y costo posibles. Si la empresa asignara un presupuesto de P1 pesos, el proyecto se podría realizar en un tiempo T1. Sin
embargo, si la empresa decidiera reducir dicho presupuesto a P2, el tiempo
de realización aumentaría a T2, esto suponiendo que el nivel de especificaciones es fijo. En este caso el administrador de proyecto tendrá que definir
la combinación de tiempo y costo con la que desea realizar el proyecto.
11.2.2 Ciclo de vida
Como observamos en la definición del proyecto, una característica implícita en la definición de un proyecto es que tiene un principio y un fin, por lo
que podemos decir que tiene un ciclo de vida, ya que nace cuando comienza, se desarrolla y muere cuando termina. A lo largo del ciclo de vida podemos encontrar seis diferentes etapas:
1. Concepción: es la primera etapa donde se defi ne la necesidad de
lograr un objetivo, y por lo tanto la necesidad de planear y realizar
un proyecto.
2. Planeación: es la etapa en que se detalla la forma como se deberá
ejecutar el proyecto.
3. Evaluación: es la función que se encarga de decidir si el proyecto es
viable o no, según lo que se quiera lograr. Por ejemplo, en una empresa privada la mayoría de los proyectos tendrán por objetivo ob-
278
Capítulo 11
Administración de proyectos
tener utilidades adicionales y, por lo tanto, la evaluación relevante
será una evaluación financiera.
4. Ejecución: es la etapa donde se llevan a cabo las actividades que
nos ayudarán a lograr el objetivo deseado.
5. Control: es la etapa en que se verifica que las actividades se vayan
realizando en el tiempo, costo y desempeño definidos en la etapa
de planeación, y busca minimizar variaciones con respecto a lo
planeado. También se encarga de ajustar el rumbo en caso de que
existan variaciones.
6. Terminación: es la última etapa, la cual se presenta cuando las actividades planeadas se han llevado a cabo y (deseablemente) se ha
alcanzado el objetivo planteado al principio del proyecto. En un
proyecto bien planeado y ejecutado los recursos que se han asignado a su realización deben ser retirados gradualmente durante esta
etapa.
La figura 11.4 representa el ciclo de vida de un proyecto, en el eje horizontal
se encuentra el tiempo y en el eje vertical la cantidad de recursos que se
están utilizando en el proyecto. Esta gráfica muestra cómo el proyecto empieza con muy pocos recursos que, a medida que se va desarrollando el
plan, van aumentando gradualmente. En algún punto se llega a realizar
el esfuerzo máximo, con el mayor número de recursos comprometidos. A
partir de ese momento se van reduciendo gradualmente los recursos utilizados hasta llegar a cerrar el proyecto. Como podemos observar en la gráfica, las etapas de planeación y evaluación, así como las de ejecución y conNivel de
esfuerzo
Punto de esfuerzo máximo
Tiempo
Concepción Planeación y
evaluación
FIGURA 11.4 Ciclo de vida de un proyecto
Ejecución
y
control
Terminación
279
11.2 El proyecto
trol, tienden a llevarse a cabo simultáneamente, por la alta interrelación
entre ellas.
Una gráfica muy relacionada con el ciclo de vida del proyecto es la gráfica del trabajo acumulado, que muestra la cantidad de trabajo que se ha
realizado en un proyecto hasta un momento determinado. En lenguaje matemático, la gráfica de trabajo acumulado es la integral del ciclo de vida del
proyecto. Al realizarse un proyecto se debe considerar el trabajo acumulado para poder medir el porcentaje de avance.
En la figura 11.5 podemos observar cómo se va acumulando el trabajo.
En las etapas de concepción y planeación el trabajo se va acumulando lentamente. En la medida que se va involucrando más esfuerzo, el trabajo se va
acumulando rápidamente. En la etapa final se reduce la velocidad con la
que se va acumulando el trabajo. El punto de máximo esfuerzo del ciclo de
vida sería el punto de máxima pendiente en la gráfica del trabajo acumulado.
En la figura 11.5 podemos observar también una curva que se comporta
de forma aproximadamente inversa a la del trabajo acumulado. La curva de
influencia muestra la capacidad que tiene el administrador para influir en la
forma en que se lleva a cabo el proyecto. Al comienzo de un proyecto, en su
concepción y planeación se tiene un 100% de control sobre los recursos que
se van a comprometer, la forma en que se van a hacer las cosas, el equipo
que se puede incorporar al proyecto, qué tipo de tecnologías se van a involucrar y la forma en que se va a organizar el trabajo. Es decir, al principio del
proyecto se tiene una gran capacidad para influir en la forma en que se va a
realizar. Conforme va avanzando el proyecto, se realizan actividades, se involucra a personas y recursos que van reduciendo la capacidad de realizar
cambios. Después de cierto grado de avance (típicamente en el punto de
mayor esfuerzo), la capacidad de realizar cambios se vuelve mínima.
100%
Trabajo acumulado
Curva de influencia
0
FIGURA 11.5 Trabajo acumulado y curva de influencia
Tiempo
280
Capítulo 11
Administración de proyectos
La consecuencia básica de la curva de influencia es la necesidad de
planear detalladamente al principio de los proyectos, cuando todavía existe
la posibilidad de influir plenamente en los diferentes aspectos.
11.3 Planeación de proyectos
La presente sección tiene por objetivo describir las funciones y los principales elementos que debe contener un plan, primero se debe entender lo
que es la teoría de planeación, que es el punto en el que se debe situar
cualquiera que quiera emprender un proyecto. Posteriormente hay que
analizar cada uno de los elementos del plan, para profundizar con más detalle en el proyecto.
El resto de este capítulo se concentrará en describir los elementos que
debe contener el plan integral de un proyecto. Si bien todas las etapas del
proyecto (concepción, planeación, evaluación, ejecución, control y terminación) son importantes para el éxito del mismo, el plan nos permite conocer todos los aspectos que se deben considerar.
11.3.1 El plan del proyecto
El plan es un documento que establece el objetivo y la forma en que se va a
realizar el proyecto. Es fundamental que el plan sea un documento escrito
que todas las personas que participan en el proyecto deben conocer, esto
permite que todos los involucrados entiendan el objetivo hacia el que están
trabajando y el papel que están jugando dentro del equipo.
Existen dos maneras de hacer un plan de acuerdo a como fluye la información, éstas son: top-down y bottom-up. En el caso del top-down los directivos de la empresa definen los principales aspectos del proyecto y los
comunican a los subordinados que se encargarán de la ejecución. En el
bottom-up los subordinados realizan tanto la labor de planeación como de
ejecución, y los directivos tienen únicamente una función mínima de coordinación. Lo óptimo es elaborar un plan haciendo una combinación de ambas, para que así exista una retroalimentación de información entre los diferentes niveles de la organización. Además, esto permite que todas las
personas relacionadas con el proyecto enriquezcan el plan.
El plan terminado tiene cuatro funciones:
•
•
Comunicación: el plan es un instrumento de comunicación en la
medida que se le dé amplia difusión entre los participantes. Esto
permitirá unificar criterios y aumentará el compromiso que se tiene con el proyecto.
Control: es necesario tener un parámetro para saber el avance que
se debería tener en un momento dado, es decir, saber si el avance
es el deseado. El plan proporciona este parámetro al dar condiciones de avances de trabajo y costo a lo largo del tiempo.
11.3 Planeación de proyectos
•
•
281
Coordinación: al tener una serie de recursos es necesario saber
cuáles se están utilizando, en qué momento y en qué grado. Estos
recursos humanos, materiales, tecnológicos y financieros tendrán
que estar en constante interacción a lo largo del proyecto. El plan
proporciona una guía para las interacciones de los diversos recursos en las diferentes tareas.
Prevención: cualquier proyecto está sujeto a contingencias, y una
de las funciones del plan es tratar de anticiparse a los problemas
que se puedan presentar, a fin de minimizar desviaciones en lo planeado. Realizar un análisis de riesgo dentro del plan permite prevenir y protegerse, en la medida de lo posible, ante cuestiones adversas que pudieran afectar al proyecto que se esté realizando.
Según se observó en la curva de influencia, el plan debe realizarse en las
primeras etapas del proyecto. Esto puede parecer problemático, pues con
frecuencia muchos detalles de la información se van presentando una vez
comenzado el proyecto. A pesar de esta incertidumbre, el plan debe anticiparse en la medida de lo posible a los factores que pudieran afectar el proyecto. Si bien no existe el plan perfecto, invertir tiempo y dinero en realizar
un plan detallado aumentará la posibilidad de éxito del proyecto.
11.3.2 Elementos de un plan
Los elementos básicos que debe contener un plan y que reflejan los diferentes aspectos que se deben administrar en un proyecto son:
•
•
•
•
•
•
•
•
Objetivo.
Estructura del trabajo o WBS (work breakdown structure).
Programa de actividades.
Organización del equipo de proyecto.
Gráfica lineal de responsabilidades.
Normas.
Presupuesto.
Análisis del riesgo.
A continuación se describe cada uno de estos elementos.
Objetivo: el objetivo es una meta, tarea o actividad a ser lograda en cierto tiempo. Como se mencionó en la sección anterior, el objetivo es la razón
de ser del proyecto, por lo que todas las actividades y planes deben estar
enfocadas a lograrlo. Éste tiene que estar perfectamente bien definido y
todas las personas involucradas deben tener un entendimiento similar sobre lo que se quiere lograr con el proyecto.
Los objetivos de un proyecto pueden dividirse en generales y específicos. El objetivo general describe lo que se quiere hacer en un proyecto, y
282
Capítulo 11
Administración de proyectos
debe ser único. Los objetivos específicos aterrizan en términos concretos y
medibles lo que se quiere lograr en el objetivo general. Los objetivos específicos no son independientes: todos están correlacionados, implícita y explícitamente, en su forma de contribuir a lograr el objetivo general. Por
ejemplo, un proyecto de mejora de calidad puede tener como objetivo general mejorar la calidad de una línea de ensamble. Por su parte, los objetivos específicos podrían incluir: poner el proceso dentro de ciertas tolerancias en los siguientes tres meses, capacitar a todas las personas de la línea
en técnicas de mejora continua e implantar una serie de controles a lo largo
del proceso. En este ejemplo el objetivo general de lograr mejorar la calidad
se aterriza en metas específicas y concretas (en cuanto al proceso) en donde se van a dar las especificaciones de lo que se logrará.
Según Kerzner (2003), los objetivos del proyecto deben contar con las
siguientes características:
•
•
•
•
•
•
•
Ser específicos.
No muy complejos.
Medibles, tangibles y verificables.
Realistas y alcanzables.
Establecidos de acuerdo con los recursos disponibles.
Consistentes con los recursos disponibles y anticipados.
Consistentes con los planes, políticas y procedimientos organizacionales.
Si bien estas características parecieran evidentes, una gran cantidad de
proyectos fracasan en la práctica por no cumplir con al menos una de ellas.
Estructura del trabajo o WBS: la estructura del trabajo es la estrategia a
seguir en la división del trabajo, así como la definición de las principales
actividades que deben ser realizadas para cumplir los objetivos. La estructura del trabajo es la parte analítica de la administración de proyectos; parte del principio que es más fácil planear, controlar, presupuestar y asignar
el trabajo en tareas pequeñas que en grandes actividades. Con este objetivo
en mente, la estructura del trabajo divide un proyecto determinado en diferentes actividades, las cuales son a su vez subdivididas en otras subactividades, hasta llegar a actividades básicas conocidas como tareas. La estructura del trabajo se conoce también como WBS, por ser las siglas de work
breakdown structure, el término comúnmente utilizado en inglés.
Las divisiones sucesivas del trabajo se conocen como niveles. Así, el
proyecto es el nivel 0; las actividades en las que se divide el proyecto son
el nivel 1; estas actividades se subdividen en el nivel 2, y así sucesivamente.
El número de niveles de un proyecto determinado dependerá de la complejidad del proyecto. Un proyecto para desarrollar un nuevo automóvil o
construir una nueva línea del Metro requerirá de una cantidad mayor de
niveles que un proyecto para adaptar una pieza en una máquina.
283
11.3 Planeación de proyectos
Las tareas resultantes de la división del trabajo deben ser exhaustivas y
mutuamente excluyentes. Ser exhaustivas implica que cuando se completan todas las tareas definidas para el proyecto, automáticamente se concluye el proyecto. Igualmente, cuando se concluyen todas las tareas de una
actividad se concluye esa actividad. Se entiende por mutuamente excluyentes, a que cada parte del trabajo que se tiene que realizar dentro del proyecto es parte de únicamente una de las tareas definidas.
Para cualquier proyecto existen una variedad de maneras de dividir el
trabajo, según diferentes enfoques. Por ejemplo, el trabajo de un proyecto
de construcción de un edificio de tres pisos puede dividirse de muchas maneras. Una manera de dividirlo sería por actividades: en cimentación, obra
negra y acabados. En el momento que se acaben estas actividades, automáticamente se habrá terminado el edificio. Estas actividades se pueden dividir en subactividades, como por ejemplo, los acabados en carpintería, pisos
y pintura. Otra manera de dividir el proyecto sería por niveles, donde las
actividades en las que se divide el proyecto son planta baja, primer piso y
segundo piso. El proyecto puede ser exitoso con cualquier división del trabajo bien hecha (es decir, exhaustiva y mutuamente excluyente). La labor
del líder de proyecto será elegir aquella que le facilite la planeación, ejecución y control del proyecto de acuerdo con el entorno.
Existen varias maneras de representar la estructura del trabajo. Las
más comunes son la gráfica de árbol y el listado con códigos de actividades.
En la gráfica de árbol el proyecto se coloca en el nivel superior de la
gráfica, y éste se va subdividiendo. La figura 11.6 representa un ejemplo de
estructura del trabajo, en donde un proyecto de expansión de una planta se
coloca en el nivel 0. En este caso se realizó una división del trabajo de acuerdo con las etapas del proyecto, y en el nivel 1 se tienen cuatro actividades
Expansión de
una planta
Construcción nave
Diseño del
proceso
Nivel 0
Compra de
equipo
Diseño
Licencias
Levantar nave
Instalaciones
FIGURA 11.6 Ejemplo de estructura del trabajo en forma de árbol
Arranque de
planta
Nivel 1
Definir
especificaciones
Instalación de proceso
Licitar y hacer
contratos
Estabilización
Corridas de prueba
Nivel 2
284
Capítulo 11
Administración de proyectos
principales. El nivel 2 nuevamente divide el trabajo de acuerdo con las etapas de la actividad.
Otra manera de representar la estructura de trabajo es mediante una
lista en la que se asignan números a cada una de las actividades del proyecto, incluyendo el mismo proyecto (usando una codificación). Para el caso
de la expansión de una planta, las actividades se numeran, de acuerdo con
la gráfica de árbol, de la siguiente manera:
1.0.0 Expansión de una planta
1.1.0 Construcción nave
1.1.1 Diseño
1.1.2 Licencias
1.1.3 Levantar nave
1.1.4 Instalaciones
1.2.0 Diseño del proceso
1.3.0 Compra de equipo
1.3.1 Definir especificaciones
1.3.2 Elaborar y licitar contratos
1.4.0 Arranque de planta
1.4.1 Instalación de proceso
1.4.2 Corridas de prueba
1.4.3 Estabilización
Los diferentes códigos indican las subdivisiones de las diferentes actividades. Esta representación tiene la ventaja de poder presentar las actividades
en forma de listado, lo cual permite asociar características a cada una de las
actividades, como por ejemplo en un presupuesto.
La estructura del trabajo va a ser el prerrequisito del cual van a partir
los siguientes elementos del plan. Así, la programación del proyecto se basa
en asignar tiempo a las diferentes tareas, el presupuesto les asigna costos y
la gráfica lineal de responsabilidades asigna el trabajo al equipo.
Programa de actividades: el programa de actividades tiene por objetivo
asignar tiempo al proyecto y mostrar cuándo debe comenzar y terminar
cada una de las tareas del proyecto. Para poder llegar a este programa se
deben combinar dos factores: primero, el orden lógico (o secuenciación) de
las actividades y segundo, la duración de cada una de ellas.
La secuenciación de actividades va a determinar el orden lógico y las
relaciones de precedencia entre las diferentes actividades.
Cuando ya se tiene la conceptualización del trabajo, lo que se debe tratar
de establecer son las relaciones lógicas. Por relaciones lógicas se entiende las
relaciones de precedencia. Es decir, saber qué se debe terminar antes de poder realizar otra de las actividades. En el caso del edificio de tres niveles,
sabemos que va a estar compuesto de tres actividades: cimentación, obra
negra y acabados. Es necesario realizar la cimentación antes de realizar la
obra negra de la planta baja. Para realizar la obra negra del segundo piso se
285
11.3 Planeación de proyectos
B
A
FIGURA 11.7 Diagrama de
precedencias
C
E
F
D
tiene que haber realizado la terminación de la cimentación y la obra negra
de planta baja y primer piso. Igualmente, para hacer los acabados del segundo piso tiene que haberse terminado la obra negra del segundo piso y
todas las actividades que la anteceden.
Es posible que se tengan terminados los acabados en el proyecto sin
que éste sea un prerrequisito para la obra. Lo que se tiene que hacer es establecer, para cada una de las actividades a realizar, cuáles son las actividades que deben preceder a otras. Lógicamente, se va a tratar de establecer
precedencias inmediatas de una a otra. Es decir, (1) precede a (2) y (2) precede a (3), entonces (1) precederá a (3).
Las precedencias se representan por medio de una red de actividades.
Generalmente se hace por medio de un diagrama de red donde se conectan
círculos (llamados nodos) por medio de flechas (llamados arcos). La figura
11.7 presenta un diagrama de precedencias con actividades en los nodos.
Una flecha del nodo A al B significa que la actividad A precede a B. En este
caso, A precede a B, C y D; C y D preceden a E, y B y E preceden a F.
Una vez que se determinó el orden de precedencia entre las diferentes
tareas, se van a asignar tiempos. La duración de la actividad dependerá de
los recursos que se le puedan asignar. Por ejemplo, un diseño de producto
que realicen dos ingenieros, seguramente tomará menos tiempo que un diseño realizado por un solo ingeniero. Por medio del diagrama de Gantt se
representa el programa de actividades, para conocer el momento en que
se deben llevar a cabo las actividades, así como su duración.
La figura 11.8 presenta un ejemplo de la gráfica de Gantt, en donde el
proyecto consiste en el lanzamiento de un producto. En este diagrama todas las actividades tienen asignada una duración y un orden. El largo de la
barra en cada renglón representa la duración de esa actividad, mientras que
las flechas muestran las precedencias. De acuerdo con la secuencia de las
actividades del proyecto, lo primero que se debe conocer es el contenido de
la publicidad y el funcionamiento de la campaña de radio, para luego seguir
con la campaña de televisión y así sucesivamente hasta el lanzamiento del
producto. Como se puede ver, algunas de las actividades se pueden realizar
simultáneamente, pero hay otras en donde necesariamente se tiene que ha-
286
Capítulo 11
Administración de proyectos
Actividad
Contenido de publicidad
Campaña de radio
Campaña de TV
Campaña de prensa
Promoción
Preparación
Presentaciones
Planes de venta
Estudios de mercado
Distribución
FIGURA 11.8 Diagrama de Gantt
Lanzamiento
Tiempo
5
10
15
20
25
30
ber acabado una actividad para comenzar una nueva. El eje horizontal define la dimensión tiempo, en el cual se muestra el grado de avance que debe
tener cada actividad en cualquier momento de la vida del proyecto. Para el
día 12, por ejemplo, las tareas de contenido de publicidad, campaña de radio y campaña de TV deben estar concluidas, mientras que campaña de
prensa, promoción y presentaciones deben tener un avance de entre 30%
y 50%.
Muchas de las técnicas cuantitativas utilizadas en administración de
proyectos están asociadas a las precedencias y la programación. Éstas van
desde la ruta crítica y el PERT (Program Evaluation and Review Technique), hasta la simulación Monte Carlo. Estas diferentes técnicas permiten
conocer, con diferentes grados de precisión, la duración que tendrá el proyecto y las posibles desviaciones del tiempo estimado.
Una vez definidas las actividades y sus duraciones, es conveniente definir hitos dentro del proyecto. Los hitos son logros intermedios en el desarrollo del proyecto que frecuentemente están asociados con los objetivos específicos. En el caso del desarrollo de un nuevo producto, un hito puede ser
tener un prototipo funcional. Para un proyecto de calidad, el hito puede
ser la conclusión de la capacitación programada. Los hitos son importantes
tanto por su posibilidad de ser puntos de control como por su capacidad de
mantener el apoyo dentro y fuera del equipo.
Organización del equipo de proyecto: la organización del equipo de proyecto es el diseño del número y tipo de posiciones, acorde con tareas definidas para lograr los objetivos. La organización debe hacerse de acuerdo
con las habilidades y experiencias necesarias para realizar las diferentes
tareas. En la práctica, un buen equipo de proyecto puede ser el factor más
importante para el éxito, ya que tendrá la habilidad de realizar el proyecto
y manejar las contingencias en el camino.
11.3 Planeación de proyectos
287
Planta de pan
Finanzas
Producción
Mercadotecnia
Administración
FIGURA 11.9 Organización por función
Para poder crear el equipo es muy importante entender el tipo de organización en la que se va a realizar el proyecto, ya que el contexto facilitará
o limitará las diferentes acciones. Los tipos más comunes son las organizaciones por función y las organizaciones por proyecto. Un tercer tipo, que es
la conjunción de las dos primeras, se denomina organización matricial. Estos tipos se describen a continuación.
Las organizaciones por función son aquellas en donde hay diferentes
personas especializadas en diferentes funciones. La mayoría de empresas
de manufactura y de servicios masivos (bancos, transporte), tendrán una
organización funcional. En la figura 11.9 se muestra un ejemplo de planta
de pan; en este caso, la estructura de la organización se basará en cuatro
funciones, que son producción, mercadotecnia, finanzas y administración
(que incluye el área de recursos humanos). El personal de la empresa será
asignado a cada una de estas áreas, según sus funciones.
La figura 11.10 es un ejemplo de organización por proyecto. Este tipo de
organización se presenta en las empresas dedicadas a productos únicos, según las necesidades específicas del cliente, como empresas de consultoría,
software, publicidad, ingeniería o de construcción. En este tipo de organización, debajo del director general, estarán los encargados de los proyectos
1, 2, 3 y 4. Cada uno de estos equipos se dedicará a resolver los diferentes
aspectos funcionales de un solo proyecto. En algunas empresas, los equipos
serán reorganizados cada vez que sea concluido un proyecto, mientras que
en otras los equipos permanecerán prácticamente constantes.
El último tipo de organización es la organización matricial. Este tipo
de organización trata de combinar las ventajas de las organizaciones fun-
Director General
Director
Proyecto 1
Director
Proyecto 2
FIGURA 11.10 Organización por proyecto
Director
Proyecto 3
Director
Proyecto 4
288
Capítulo 11
Administración de proyectos
Director
General
Director
de proyectos
Administrador
funcional
Administrador
funcional
Administrador
funcional
Administrador del
proyecto
Administrador del
proyecto
Administrador del
proyecto
Administrador del
proyecto
Interfase
funcional
del proyecto
FIGURA 11.11 Organización matricial
cional y por proyectos. En la figura 11.11 se presenta un ejemplo de una
organización matricial, en donde se tiene por un lado al director general,
del cual dependen el director de proyectos y los administradores funcionales de mercadotecnia, finanzas, etc. Las funciones están representadas de
manera horizontal y los proyectos de manera vertical. Del director de proyectos dependen administradores de proyectos individuales, que utilizarán
los recursos de cada uno de los administradores funcionales, según las necesidades específicas del proyecto. En este tipo de organización cada persona
de área funcional va a ser responsable de un aspecto del proyecto, mientras
que el director del proyecto tendrá que integrar todos los esfuerzos para
lograr el resultado final.
Una de las ventajas principales de este tipo de organización es que facilita el aprendizaje entre diferentes proyectos. Sin embargo, su principal
problema es la asignación adecuada de cargas de trabajo en el tiempo para
personas que pueden estar participando en una variedad de proyectos.
Además, las líneas funcionales y de proyectos pueden crear conflictos de
autoridad y confusión de prioridades.
Gráfica lineal de responsabilidades: la gráfica lineal de responsabilidades va a relacionar la estructura del trabajo con el equipo que va a participar en el proyecto. Consiste en asignar a los diversos miembros del equipo
diferentes grados de responsabilidad en cada tarea del equipo, es decir, se
289
11.3 Planeación de proyectos
relaciona a las personas con las tareas. La gráfica lineal de responsabilidades parte del principio de que diferentes personas tendrán distintos grados
de responsabilidad en las tareas de un proyecto.
Para construir una gráfica lineal de responsabilidades, se construye un
cuadro en el que cada renglón representa una tarea, y cada columna uno de
los miembros del equipo del proyecto. En una misma tarea es probable que
diferentes personas estén involucradas. Primero se deberá definir a los
miembros del equipo que estarán involucrados en cada una de las tareas a
realizar. Después se debe definir qué grado de responsabilidad tienen y cómo están involucrados. Estos grados de responsabilidad pueden ser definidos por la organización o por el líder del proyecto. No existe una manera
única de determinar las diferentes responsabilidades que van a tener las
diferentes personas en el proyecto, sino que de acuerdo con el proyecto se
tiene que entender cuáles son los grados de involucramiento que van a tener los diferentes miembros del equipo. El cuadro terminado permite a cada persona ver las tareas en las que está involucrada, las personas con las
que tiene que interactuar en cada tarea y su grado de responsabilidad.
La figura 11.12 presenta un ejemplo de gráfica lineal de responsabilidades para el proyecto de un nuevo producto. En el ejemplo ilustrado en la
figura se tienen las actividades: diseño del plan, negociar contratos con los
socios, desarrollo de un nuevo producto, desarrollo del esquema anual de
operaciones y establecer costo estándar. Para cada una de estas actividades
se analiza toda la gente involucrada dentro del proyecto y cuál va a ser su
Administrador
del
Proyecto
Administrador
Financiero
Administrador
de
Mercadotecnia
Administrador
de
Producción
Administrador
de
Contratos
Diseño del plan
P
I
I
I, O
I
Negociar contratos con
los socios
I
R
I
P
Desarrollo de un nuevo
producto
N
O
P
Desarrollar esquema
anual de operaciones
P
N
I, N
Establecer
costo estándar
I
P
Tareas
P: Principal responsable
R: Revisión
N: Notificación
A: Aprobación
I: Proporciona información
FIGURA 11.12 Gráfica lineal de responsabilidades
N
290
Capítulo 11
Administración de proyectos
grado de involucramiento: P, Principal responsable; R, Revisión; N, Notificación; A, Aprobación; I, Proporciona información o algunas otras, de
acuerdo con las necesidades del proyecto. Se puede observar en el ejemplo,
que para cada tarea es conveniente que haya una persona responsable.
Normas: las políticas o normas son una guía general para la toma de
decisiones y acciones individuales. El conjunto de políticas opera como la
normatividad dentro del proyecto y define la manera como deben hacerse
las cosas.
Dentro de un proyecto se pueden definir normas para una variedad de
aspectos. A continuación se presenta un ejemplo para algunos aspectos
principales:
•
•
•
•
Normas de compras: para cualquier compra, la persona responsable debe tener al menos tres cotizaciones.
Normas de comunicación: la comunicación de rutina dentro del
proyecto se hará por medio de correo electrónico, a excepción de
información confidencial de la empresa.
Normas de reportes: cada responsable debe enviar un reporte
semanal del avance de sus paquetes de trabajo, que incluya una
explicación, en caso que haya alguna desviación del programa original.
Normas de reuniones: las reuniones para las diferentes tareas deberán programarse con una duración máxima de 30 minutos, y
sólo tendrán que asistir las personas involucradas directamente
con esa tarea, según se define en la gráfica lineal de responsabilidades.
De acuerdo con Donnelly (1997), las políticas efectivas deben tener las siguientes cinco características:
1. Claridad: las políticas deben estar escritas clara y lógicamente.
Cada una debe especificar una meta, método y acciones apropiadas para aquellos que van a ser guiados por esta política.
2. Comprensiva: para que un plan se pueda efectuar, las políticas deben ser lo suficientemente comprensivas para cubrir cualquier tipo de contingencia.
3. Coordinación: las políticas proporcionan directrices para que las
diferentes subunidades persigan los mismos objetivos.
4. Ética: es necesario que las políticas respeten el comportamiento
de la sociedad.
5. Flexibilidad: debe existir un equilibrio entre la estabilidad y la flexibilidad. Las condiciones cambian y las políticas tienen que cambiar
de acuerdo con estas condiciones. Por otro lado, debe prevalecer
cierto grado de estabilidad para mantener el orden en el sentido de
la dirección que se lleva.
11.3 Planeación de proyectos
291
Si bien estas características deben cumplirse, la última prueba de efectividad de una política es el logro o fracaso del objetivo deseado. Las políticas de proyectos dentro de una organización deben ser reexaminadas periódicamente para adaptarse a los objetivos que se quiere alcanzar.
Presupuesto: el presupuesto es una planeación de gastos requeridos para cumplir los objetivos; muestra la manera en que se va a manejar el dinero dentro de las actividades.
Al igual que la planeación general, existen dos estrategias para reunir
información acerca del presupuesto:
•
•
Presupuesto top-down, donde se reúnen los juicios y experiencias
de los administradores con amplia experiencia, así como datos pasados que tengan que ver con actividades similares.
Presupuesto bottom-up, en el que se utiliza la estructura del trabajo como base para realizar el presupuesto de cada tarea, y a partir de estos presupuestos parciales generar el presupuesto total del
proyecto.
El caso bottom-up proporciona una mejor estimación, ya que permite asignar costos a cada uno de los recursos (humanos, insumos y maquinaria)
que se utilizarán en cada tarea. El presupuesto va a estar determinado por
la forma en que se haya hecho la estructura de trabajo.
Según Kerzner (2003), una organización puede asignar presupuesto
entre proyectos a lo largo de su ciclo de vida de acuerdo con dos sistemas.
El sistema de programación y planeación del presupuesto (PPBS) sirve
para identificar la planeación y control de proyectos que maximizarán las
metas alcanzadas por las organizaciones en el largo plazo. Se centra básicamente en aquellos proyectos que traerán mayor progreso de acuerdo con
las metas organizacionales al menor costo. Básicamente sigue los siguientes pasos:
•
•
•
•
Identificar las metas y objetivos para cada área. Ésta es la “porción
de planeación”.
Analizar los programas propuestos para lograr objetivos organizacionales. Este paso requiere una buena descripción de la naturaleza del proyecto; es la parte de “programación”.
Estimar los costos totales para cada proyecto, incluyendo los costos indirectos.
Analizar los proyectos alternativos en términos de los costos, beneficios y ciclo de vida esperados. Se realizan análisis de costo-beneficio para cada programa, para que éstos puedan ser comparados con
otra selección de proyectos.
El sistema de presupuesto base cero (ZBB) consiste en que cada programa debe ser revisado y justificado cada año, antes que cualquier programa
292
Capítulo 11
Administración de proyectos
reciba cualquier tipo de fondeo. El objetivo es ahorrar desechando proyectos que han mantenido sus utilidades y continuado por la inercia de los
creadores de la política.
Análisis del riesgo: el análisis de riesgo es una anticipación a las posibles
contingencias del proyecto. Para realizar el análisis de riesgo es necesario
diferenciar entre incertidumbre y riesgo. Mientras que la incertidumbre se
refiere a factores inciertos relacionados con el proyecto, el riesgo se va a
tratar de cuantificar y prevenir. La medición del riesgo resulta de multiplicar la probabilidad de que suceda un evento (qué tan posible es que ocurra:
un número entre cero y uno) por el impacto, si llegara a suceder (cuantificando el costo y el tiempo).
La administración del riesgo consiste en tres etapas: identificación,
análisis y respuesta (figura 11.13). Si bien el proceso en teoría sigue ese orden, en la práctica es un proceso iterativo donde la generación de respuestas al riesgo puede generar cambios en los planes de acción que requieren
nuevos análisis. A continuación se describen las tres etapas.
1. Identificación de riesgos. Consiste en generar una lista de los
riesgos que tiene el proyecto. Ésta debe incluir tanto los riesgos
internos (los que están directamente relacionados con acciones del
proyecto, como por ejemplo una falla tecnológica), como los externos (los elementos en el entorno que pudieran afectar el proyecto,
como por ejemplo una devaluación). Estos riesgos pueden ser de
diversos tipos:
•
•
Riesgos de inversión: son los que se refieren a las decisiones de
capital invertido. El principal determinante de estos riesgos va
a ser el beneficio esperado del proyecto contra el costo esperado de éste. Siempre existen riesgos en decisiones de inversión,
como invertir en un nuevo producto por la incertidumbre que
existe en la aceptación en el mercado, que finalmente se refleja
en ganancias o pérdidas.
Riesgos de estrategia: son los asociados con las diversas elecciones de cómo desarrollar el proyecto. Una decisión siempre
Identificación de riesgo
Análisis de riesgo
FIGURA 11.13 La administración del riesgo
Respuesta al riesgo
11.3 Planeación de proyectos
•
•
293
implica varias maneras de lograr el objetivo, por lo que los
riesgos estratégicos buscan la manera óptima de cubrir los objetivos planteados.
Riesgos condicionales: éstos se refieren a cambios en las condiciones de operación en el curso del proyecto, dada la incertidumbre de los eventos futuros. Estos riesgos están asociados
con las condiciones que surgen durante el desarrollo del proyecto que pueden ser diferentes a las condiciones originalmente previstas.
Riesgos asegurables: éstos son los riesgos relacionados con
eventos ya conocidos estadísticamente, como accidentes, fuegos, pérdidas, etc. Las compañías aseguradoras están construidas en torno a estos riesgos, por lo que su prevención puede ser realizada, así pueden ser minimizados estos riesgos.
Éstos son los riesgos para incidentes que tienen una historia
estadística.
Para generar la lista de riesgos, generalmente se utiliza la técnica de “lluvia de ideas”, una dinámica que permite una amplia
identificación de riesgos posibles. Para la lluvia de ideas se tendrá
una primera sesión de creatividad, donde miembros del grupo discuten según sus conocimientos y experiencias las principales fuentes de riesgo que pueden existir dentro de su proyecto. La segunda
sesión es de evaluación, donde se analiza cada una de las propuestas anteriores y se obtiene una lista definitiva de los riesgos a tomar
en consideración.
2. Análisis de riesgo. Es la metodología para estudiar factores que
constituyen el riesgo al que está expuesto un proyecto. El análisis
de riesgo trata de racionalizarlos de tal manera que el administrador pueda ver la probabilidad de que éstos ocurran y su impacto en
el proyecto. Las técnicas pueden ser tanto cuantitativas (en riesgo
asegurable mediante estadísticas, en riesgo en inversión mediante
análisis de sensibilidad y en riesgo de estrategia con un árbol de
decisión) como cualitativas (grupo de enfoque, análisis histórico).
3. Respuesta al riesgo. Es la práctica de reaccionar ante un riesgo
percibido (por análisis de riesgo u observación), de tal manera que
se minimicen las posibles consecuencias adversas. Las respuestas
genéricas a los diferentes riesgos son: evitar, reducir, asumir, transferir y realizar estudios exhaustivos.
La figura 11.14 presenta un ejemplo de administración de riesgo, para el
caso de establecer un punto de venta para productos industriales. Podemos
observar que la respuesta al riesgo dependerá en gran medida del resultado
de la etapa de análisis.
294
Capítulo 11
Administración de proyectos
Fuentes de riesgo
Análisis del riesgo
Respuesta al riesgo
• Falta de demanda
Estudio de mercado.
Ingreso al mercado o evaluación de mercados alternativos.
• Tasas de interés
Análisis de sensibilidad. Cuáles serían los
efectos de cambios en la tasa de interés en
el proyecto.
Tasa fija o variable, según expectativas e
impacto.
• Variaciones en tipo de cambio
Análisis econométrico.
Coberturas cambiarias.
• Condiciones del suelo
Estudio de mecánica de suelos.
Refuerzo o búsqueda de terrenos alternativos.
• Fallas en entregas de los proveedores
Historial de proveedores.
Contratos con altas penalizaciones por
incumplimiento de condiciones.
FIGURA 11.14 Ejemplo de administración de riesgo
11.4 Programación de proyectos con tiempos
de actividades conocidos
En esta sección se describe la metodología para programar las actividades
asociadas a un proyecto, tomando en cuenta sus predecesores y el tiempo
promedio de cada actividad. La programación de actividades conforme a
los métodos de ruta crítica, CPM (Critical Path Method) y el PERT (Program Evaluation and Review Technique), empieza con un listado y una descripción de las actividades, incluyendo su tiempo esperado de realización y
sus predecesores inmediatos; un predecesor se define como aquella actividad que debe estar terminada por completo antes de iniciar la actividad
posterior. Una actividad puede tener más de un predecesor inmediato. Posteriormente se realiza un diagrama de precedencias conforme a lo descrito
en la sección anterior. Finalmente, la estimación del tiempo de terminación
de un proyecto se realiza tomando en cuenta cuatro tiempos relacionados
con cada actividad.
•
•
Tiempo de terminación más próximo, EF (del inglés, earliest finish time): está dado por su tiempo de inicio más próximo más el
tiempo esperado (t) para llevar a cabo la actividad. En resumen,
EF ES t.
Tiempo de inicio más próximo, ES (del inglés, earliest start time):
para una actividad corresponde al tiempo de terminación de la actividad que le precede inmediatamente. En caso que la actividad a
analizar tenga más de una actividad precedente, el ES corresponderá al valor más lejano entre todos los tiempos de terminación
más próximos de las actividades precedentes.
295
11.4 Programación de proyectos con tiempos de actividades conocidos
Descripción
de la actividad
Actividad
Predecesor
inmediato
Tiempo de la
actividad
A
Elaborar los planos
—
5
B
Obtener aprobaciones
—
6
C
Diseñar la obra civil
A
4
D
Especificar el equipo
A
3
E
Solicitar el equipo
A
1
F
Instalar el equipo
E
4
G
Pruebas de arranque
D, F
14
H
Pruebas de seguridad
B, C
12
I
Certificar la planta
G, H
2
Total 51
E
F
A
D
G
I
Inicio
C
Fin
H
B
FIGURA 11.15 Datos sobre las actividades del proyecto de una planta de manufactura y las rutas del proyecto
•
•
Tiempo de terminación más lejano, LF (del inglés, latest finish
time): de una actividad equivale al tiempo de inicio más lejano de
la actividad inmediata subsecuente. En caso que las actividades
tengan más de una actividad que la siga en forma inmediata, el LF
corresponderá al más próximo de los tiempos de inicio más lejanos
de esas actividades.
Tiempo de inicio más lejano, LS (del inglés, latest start time): para una actividad determinada es igual al tiempo de terminación
más lejano menos la duración esperada (t) de dicha actividad; es
decir, LS LF – t.
El siguiente ejemplo ilustra los conceptos descritos en esta sección. La tabla
de la figura 11.15 contiene un listado de actividades para un proyecto rela-
296
Capítulo 11
Administración de proyectos
Tiempo de inicio más corto
Tiempo de terminación más corto
Clave de la actividad
FIGURA 11.16 Formato
estándar para el registro de
actividades y tiempos
Tiempo de terminación más largo
Tiempo de la actividad
Tiempo de inicio más largo
cionado con la construcción de una nueva planta de manufactura. Las figuras subsecuentes muestran el diagrama de precedencias y la red de actividades conforme al diagrama de red.
Los tiempos de inicio y terminación más próximos, así como los tiempos de inicio y terminación más lejanos, se presentan en las siguientes figuras. La figura 11.16 presenta el orden en el que se reporta cada uno de estos
tiempos, mientras que la figura 11.17 presenta los resultados de cada tiempo en el diagrama de red. La parte superior en cada uno de los cuadros del
diagrama muestra los tiempos más cortos, mientras que la parte inferior se
utiliza para registrar los tiempos más lejanos.
En la figura 11.17 se observa que en algunos casos no existe diferencia
entre los tiempos de inicio más cercanos y los más lejanos (y, en consecuencia, tampoco hay en estos casos diferencias entre los tiempos de inicio y
terminación más lejanos). Estos casos sirven para ilustrar el concepto
de holgura de una actividad, la cual corresponde a la máxima cantidad de
tiempo que dicha actividad puede retrasarse sin provocar retrasos en todo
el proyecto. Por definición, una actividad crítica es aquella con holgura
igual a cero, mientras que la ruta crítica de un proyecto está determinada
E
5
6
F
6
1
5
6
4 10
10
14
A
0
5
0
5
8
G
10
24
5
0
5
3
7
10
14 10
24
C
5
9
H
4
7
12
12 12
9
21
1
24
26
24
2
24
26
Inicio
FIGURA 11.17 Tiempos de
inicio y terminación más
cercanos y más lejanos
Fin
B
0
6
6
6
12
297
11.5 Programación de proyectos con tiempos de actividades inciertos
por las actividades críticas. Para el ejemplo anterior, se observa que la duración del proyecto será de 26 semanas, mientras que la ruta crítica estará
formada por las actividades A-E-F-G-I. Ninguna de estas cinco actividades
podrá sufrir demoras o de lo contrario se retrasará todo el proyecto.
11.5 Programación de proyectos con tiempos
de actividades inciertos
A diferencia de lo presentado en la sección anterior, en muchas ocasiones
no se cuenta con información confiable sobre la duración de las actividades
de un proyecto. En estos casos, el ingeniero industrial está obligado a lidiar
con estas incertidumbres y a generar modelos de red y estimaciones de
tiempo de terminación. Una alternativa para resolver estas situaciones es
expresar los tiempos de las actividades en función de tres posibilidades:
•
•
•
El tiempo optimista (a): es el tiempo más corto en que puede llevarse a cabo una actividad, en caso que todo resulte excepcionalmente bien.
El tiempo más probable (m): en condiciones normales, es el tiempo más probable en el que se llevará a cabo la actividad.
El tiempo pesimista (p): es el tiempo más largo que se requerirá
para terminar la actividad.
El resto de los cálculos se basa en dos suposiciones: la primera es que es
posible determinar los tres tiempos anteriores, lo cual suele hacerse tomando en cuenta proyectos similares o estimaciones conservadoras de
cada uno de los tres tiempos. La segunda suposición es que la desviación
estándar del tiempo de las actividades es igual a un sexto del intervalo
(a – b), que se comporta conforme a una función de distribución beta. Esta
función se ilustra en la figura 11.18.
Tiempo más probable
Tiempo esperado (t)
Tiempo optimista
FIGURA 11.18 Distribución
del tiempo de una actividad
Tiempo pesimista
0
a
m
b
298
Capítulo 11
Administración de proyectos
La curva de distribución beta y el supuesto anterior significan que la
probabilidad de que los tiempos de las actividades sean inferiores a a o superiores a b es remota. En consecuencia, la media (te) y la varianza (s2) de
cada actividad estará dada por las siguientes ecuaciones:
te a 4m b
s2 a
6
ba
6
2
b
El siguiente ejemplo está relacionado con el supuesto proyecto de lanzamiento de un nuevo producto al mercado, bajo un entorno de incertidumbre en los tiempos de las actividades. La figura 11.19a contiene los
nombres de las actividades y sus predecesores inmediatos. La figura 11.19b
muestra los tiempos optimista, más probable y pesimista; asimismo, esta
misma tabla contiene los valores que resultan al sustituir las fórmulas de
tiempo esperado y varianza.
Una vez que se determinan los tiempos esperados para cada actividad
y las varianzas, se procede a realizar el diagrama de actividades de la misma
manera que en la sección anterior. La única diferencia es que ahora los resultados del tiempo esperado de terminación deberán ser interpretados en
términos de probabilidad. La figura 11.20 contiene los tiempos de inicio y
terminación más cercanos y más lejanos. Conforme al diagrama de red se
observa que la ruta crítica está dada por las actividades A-E-H-I-J y, además, la suma de los tiempos esperados para las actividades que conforman
la ruta crítica es de 17 semanas.
Actividad
Descripción de la actividad
Predecesor inmediato
A
Desarrollo conceptual
—
B
Estudio de mercado
—
C
Diseño del proceso
A
D
Manufactura de prototipos
A
E
Pruebas mecánicas
A
F
Estimación de costos
C
G
Pruebas finales
D
H
Investigación de mercados
B, E
I
Pronóstico y estrategia de precios
H
J
Reporte final y lanzamiento
F, G, I
FIGURA 11.19a Datos de las actividades
299
11.5 Programación de proyectos con tiempos de actividades inciertos
Actividad
Optimista
a
Más probable
M
Pesimista
b
Tiempo esperado
te ⴝ[aⴙ4mⴙb]/6
Varianza
s2
A
3
5.5
11
6
1.778
B
1
1.5
5
2
0.44
C
2
3
4
3
0.11
D
3
4
11
5
1.78
E
2
3
4
3
0.11
F
1.5
2
2.5
2
0.03
G
1.5
3
4.5
3
0.25
H
2.5
3.5
7.5
4
0.69
I
1.5
2
2.5
2
0.03
J
1
2
3
2
0.11
FIGURA 11.19b Información sobre el tiempo de las actividades y resultados de media y varianza
El tercer supuesto en la estimación del tiempo total estimado de terminación de un proyecto (TE), es que éste se comporta conforme a una curva
de distribución normal, mientras que la varianza del proyecto estará dada
por la suma de las varianzas que forman parte de las actividades en la ruta
crítica, es decir: 1.78 0.11 0.69 0.03 0.11 2.72, lo que a su vez
corresponde a una desviación estándar (raíz de la varianza) de 1.65. Conforme a lo explicado en el Apéndice del libro y tomando en cuenta una
C
6
9
F
9
11
3
10
13
2
13
15
A
0
6
0
6
11
6
11
14
J
15
17
6
0
6
5
7
12
3
12
15
2
15
17
E
6
9
H
9
13
1
13
15
3
6
9
4
9
13
2
13
15
Fin
Inicio
B
0
2
2
7
9
FIGURA 11.20 Diagrama de red para el proyecto
300
Capítulo 11
Administración de proyectos
curva de distribución normal, es posible enumerar las dos observaciones
siguientes:
1. Existe 50% de probabilidad que el proyecto sea terminado en 17
semanas o menos.
2. La probabilidad de que el proyecto sea terminado en T semanas
será una función del valor de la desviación estándar y el número de
desviaciones estándar con respecto a la media (z), dado por la siguiente ecuación:
z
T E(T )
s
Así, por ejemplo, la probabilidad de que el proyecto para lanzar un
nuevo producto al mercado sea terminado en 19 semanas o menos será de
88.49%, tal y como lo demuestra la siguiente ecuación:
z
19 17
1.65
1.21
En cualquier tabla con los valores de z para una distribución normal se
observa que z 1.21, lo que corresponde a un valor de 0.8849; es decir,
88.49%.
11.6 Consideraciones de costos
La planeación de la fecha de terminación de un proyecto y la probabilidad
para cumplir con el tiempo estimado son dos actividades que el ingeniero
debe complementar. Lo importante no es sólo mantener las fechas previstas, sino también incurrir en costos dentro de un margen aceptable. En relación con lo anterior, existe la posibilidad de realizar trueques entre los
tiempos y los costos de cada actividad. Esta posibilidad se basa en el supuesto que establece que algunas actividades son susceptibles de realizarse
en un menor tiempo, siempre y cuando se asigne una mayor cantidad de
recursos, la cual puede deberse a horas extra, más personal o más maquinaria. El análisis de los costos de intensificación de las actividades se realiza
con base en cuatro definiciones, mismas que se explican a continuación y
se ilustran en la figura 11.21.
•
•
•
•
El tiempo normal (TN) es el tiempo estimado para completar la
actividad en condiciones normales.
El costo normal (CN) es el costo esperado al que se deberá incurrir para completar la actividad en tiempo normal.
El tiempo intensivo (TI) es el tiempo más corto posible para completar la actividad, si ésta recibe una mayor cantidad de recursos.
El costo intensivo (CI) es el costo esperado por asignar más recursos e intensificar la actividad asociada con el tiempo intensivo.
11.6 Consideraciones de costos
301
$
Costo intensivo (CI )
Costo de intensificación por periodo =
CI – CN
TN – TI
Costo normal (CN )
Tiempo
Tiempo intensivo
(TI )
Tiempo normal
(TN )
FIGURA 11.21 Relaciones costo-tiempo para una actividad
Existen dos supuestos dentro del análisis de costos. El primero de ellos indica que los costos por intensificación aumentan de manera lineal en función de la reducción del tiempo de la actividad con respecto a su valor
normal. El segundo supuesto indica que las actividades sólo pueden intensificarse hasta cierto valor mínimo (equivalente al tiempo intensivo); es decir, a pesar que se asigne una cantidad infinita de recursos a una actividad,
su tiempo de realización nunca llegará a ser de cero.
En la mayoría de las ocasiones el ingeniero no desea intensificar al
máximo los recursos (es decir, reducir al máximo el tiempo esperado del
proyecto), ya que eso representaría una inversión y costos excesivos de ejecución. Las decisiones en torno a la intensificación de las actividades suelen basarse en tres conceptos:
•
•
•
Los costos de penalización (CP) en los que se incurre por terminar el proyecto después de la fecha límite determinada.
Los costos de bonificación (CB) con los que se podría beneficiar
si termina el proyecto antes de la fecha convenida.
El costo intensivo por cada periodo (CIperiodo) en que se disminuya el tiempo esperado de una actividad. Este valor corresponde a la
pendiente de la recta en la figura 11.21.
El siguiente ejemplo ilustra la aplicación de los conceptos presentados en
esta sección. Suponga que el gobierno de una ciudad ha firmado recientemente un contrato con la compañía “Constructora, S.A.”. El contrato requiere la construcción de un distribuidor vial en el cruce entre dos importantes avenidas, como parte de un proyecto que busca hacer más expedito
el tránsito en la metrópoli. En el contrato se especifica que el distribuidor
deberá estar terminado dentro de 36 meses. Además, se impondrá una pe-
302
Capítulo 11
Administración de proyectos
nalización de $1 000 000 por cada mes que el proyecto exceda el límite de
tiempo y se concederá una bonificación de $300 000 por cada mes de adelanto en la terminación del proyecto, con respecto a la fecha límite.
La tabla de la página siguiente presenta el listado de las actividades, así
como su tiempo y costos en las condiciones normales e intensificados. La
última columna es el resultado de calcular la pendiente de la recta conforme a lo ilustrado en la figura 11.21, es decir, representa el costo mensual
por intensificar una actividad.
Con base en la información anterior se determina la duración estimada
y la ruta crítica del proyecto, la cual está dada por las actividades críticas,
es decir, aquellas con holgura igual a cero. La figura 11.22 presenta el diagrama de red para el proyecto.
Existen dos rutas críticas para el proyecto, ambas con una duración de
40 meses. La primera ruta crítica está formada por las actividades A-B-DE-G-H-I, mientras que la segunda la forman las actividades A-C-F-G-H-I.
Actividad
Descripción
Tiempo
normal
(meses)
Tiempo
intensivo
(meses)
Costo
normal
($000)
Costo
intensivo
($000)
Predecesor
inmediato
Costo
intensificado
(CIp ) por mes
A
Planos del
proyecto
4
3
200
250
—
50
B
Permiso de
construcción
6
4
500
800
A
150
C
Cimientos
y columnas
mayores
8
6
800
1200
A
200
D
Columnas
menores
3
3
100
100
B
0
E
Iniciar
instalación
4
3
200
350
D
150
F
Fabricar bloques de
autopista
5
3
400
800
C
200
G
Armar el
distribuidor
15
10
1000
3500
E, F
500
H
Refuerzos y
arreglos menores
5
4
600
800
G
200
I
Certificar el
sistema
3
2
300
400
H
100
FIGURA 11.22 Diagrama de red
303
11.6 Consideraciones de costos
Intento
Actividades a
intensificar
Reducción
de tiempo
(meses)
Duración
del proyecto
(meses)
Costos de
intensificación
(acumulados)
Costos de penalización
y/o bonificación
(acumulados)
Total
0
—
—
40
—
(4000)
(4000)
1
A
1
39
(50)
(3000)
(3050)
2
I
1
38
(150)
(2000)
(2150)
3
H
1
37
(350)
(1000)
(1350)
4
BC
1
36
(700)
0
(700)
5
BC
1
35
(1050)
300
(750)
FIGURA 11.23 Evaluación de los costos de intensificación para el proyecto
Cualquiera de estas dos rutas representa la misma duración para el proyecto, ya que en este ejemplo en particular todas las actividades son críticas.
La administración de los costos del proyecto muestra que no es atractivo terminar el proyecto en 40 meses, debido a que se incurriría en una
penalización de $4 000 000, correspondiente a cuatro meses de retraso con
respecto a los 36 meses acordados para el proyecto. En consecuencia, el
ingeniero deberá identificar las ventajas que ofrece intensificar algunas de
las actividades del proyecto, con el objeto de disminuir la duración total del
mismo. En la figura 14.22 se muestran los resultados del análisis de costos. La interpretación de este análisis requiere de las siguientes consideraciones:
1. Se deben intensificar solamente las actividades que formen parte
de la ruta crítica. En este ejemplo, todas las actividades son críticas, por lo que la decisión sobre qué actividad intensificar estará
dada por el menor costo de intensificación mensual (CIp). En este
ejemplo, las actividades con los menores costos de intensificación
son A, I, H, respectivamente. Observe que la actividad D no es
considerada, debido a que según la figura 11.21 no es posible disminuir su tiempo de realización.
2. Es importante observar que cuando se intensifican las actividades
de alguna ruta crítica y se disminuyen sus tiempos, llegará un momento en el que surja una nueva ruta crítica. En este ejemplo, se
observaría que intensificar solamente las actividades B, D o E no
ayudaría en el proyecto, debido a que las actividades C y F se mantendrían como críticas y, por lo tanto, la duración total del proyecto no cambiaría.
3. Se observa que una vez intensificadas las actividades A, I, H hasta
su valor mínimo posible (tiempo de intensificación), se deberá proceder a intensificar una combinación de actividades en cada ruta
304
Capítulo 11
Administración de proyectos
(por ejemplo, B y C), debido a que resultan más baratas en comparación con la actividad G, la cual tiene un costo de intensificación
de $500 000 por mes. La combinación B C representa un costo
combinado de intensificación de $350 000 por mes. Este criterio
aplica también para la combinación B F y E F, por lo que en el
problema pudo haberse elegido cualquiera de estas tres combinaciones y obtener el mismo resultado en cuanto a costos de intensificación.
4. Finalmente, se observa en la figura que sólo conviene intensificar
las actividades B y C en un solo mes, a pesar que según la figura
11.21 podrían intensificarse dos meses. Esto se explica mejor en el
último renglón de la figura 11.23, en donde se observa que al intentar intensificar B F un segundo mes, se obtiene como beneficio
un esperado de terminación de 35 meses y una bonificación de
$300 000, debido a que se terminaría un mes antes de lo acordado.
Sin embargo, el costo extra total del proyecto sería de $750 000, lo
cual es superior a los $700 000 correspondientes a intensificar sólo
un mes la actividad B C (ver intento 4 en la figura). La decisión
final sería con base en el costo total.
Este capítulo se ha centrado en analizar los elementos que debe contener un plan, incluyendo objetivo, programa, equipo, presupuesto y análisis
de riesgo. Estos elementos reflejan las diferentes dimensiones que se deben
planear y manejar para tener un proyecto exitoso.
Finalmente, se deberá hacer énfasis en los constantes cambios en el
entorno que han aumentado la importancia de los proyectos en el contexto
de las empresas. Así como los procesos sirven para dar estabilidad y eficiencia a la producción de bienes y servicios, los proyectos permiten realizar los cambios necesarios.
La correcta aplicación de las técnicas de administración de proyectos,
resultará en el logro de los objetivos dentro de las especificaciones, tiempo
y costos deseados. Una buena selección de proyectos permitirá a la empresa adaptarse a los cambios del entorno y lograr rentabilidad e innovación
en el largo plazo.
EJERCICIOS PROPUESTOS
1. ¿Qué es la organización del equipo de proyecto y cuáles son los tipos más comunes? Investigue cómo es la organización que existe en su universidad u oficina.
2. ¿Por qué considera importante la administración de proyectos para un ingeniero?
Referencias
305
3. Realice el siguiente diagrama de precedencias.
Actividad
Actividades predecesoras
A
B
A, C
C
—
D
B, C
E
B, D
F
E
G
F
4. Si los tiempos requeridos para realizar las actividades del ejercicio anterior son 4, 8, 3, 2, 2,
5 y 6 minutos, respectivamente, determine la ruta crítica.
5. Suponga que en una empresa de alimentos enlatados se planea comprar una planta de luz,
ya que el precio de ésta en horas pico es muy alto y también existen pérdidas por apagones.
Proponga una tabla de administración de riesgo para este caso.
Referencias
Archibald, R. (2003). Managing High-Technology
Programs and Projects, 3a. Ed. John Wiley and
Sons.
Chapman, C. y Ward, S. (2003). Project Risk Management: Processes, Techniques and Insights, 2a. Ed.
John Wiley & Sons.
Cleland, D. e Ireland, L. (2002). Project Management:
Strategic Design and Implementation, 4a. Ed.
McGraw-Hill Professional.
Donnelly, J., Gibson, J. e Ivancevich, J. (1997).
Fundamentals of Management, 10a. Ed. Richard
D. Irwin.
Kerzner, H. (2003). Project Management: A Systems
Approach to Planning, Scheduling, and Controlling, 8a. Ed. John Wiley and Sons.
Meredith, J. y Mantel, S. (2002). Project Management: A Managerial Approach, 5a. Ed. John
Wiley and Sons.
Project Management Institute. (2004). A Guide to the
Project Management Body of Knowledge:
PMBOK Guide (PMBOK Guides), 3a. Ed. Project
Management Institute.
Romero-Hernández, O. (2012), Notas del módulo de
administración de proyectos en el Diplomado
de planeación y dirección de operaciones,
documento de trabajo, Centro de Desarrollo
Tecnológico, ITAM, México.
CAPÍTULO
12
Ingeniería y control
de la calidad
AUTOR:
Dr. Omar Romero Hernández
12.1 La filosofía de calidad
12.2 Variabilidad en el desempeño
12.3 Herramientas para analizar y registrar la
variabilidad
12.4 Control estadístico de procesos
12.5 Medición de la habilidad de un proceso
12.6 Six Sigma
12.7 Mejora en la habilidad de un proceso
12.8 Las normas ISO 9000 e ISO 14000
12.1 La filosofía de calidad
El comportamiento de los consumidores es uno de los mejores ejemplos de
los sistemas en donde constantemente cambian las condiciones y los criterios de decisión. A partir de la década de los años setenta los requerimientos
por parte de los clientes empezaron a cobrar mayor fuerza, hasta empezar
a convertirse en determinantes para la decisión de compra. Hoy en día,
reconocer el poder de compra de los clientes representa una importante
oportunidad para las empresas que acepten el reto de proveer bienes y servicios de calidad y con la mayor eficiencia posible (Romero, 2003). Conforme se va haciendo más fuerte la competencia, aumenta la presión en el diseño de productos, la manufactura y las organizaciones de servicios para
ser más eficientes y productivas. Las compañías manufactureras se ven
constantemente presionadas para aumentar la calidad y al mismo tiempo
disminuir los costos, mientras que las organizaciones proveedoras de servicios buscan reducir los tiempos de ciclo y aumentar la satisfacción de sus
clientes.
Algunos de los problemas anteriores pueden encontrar respuesta en
este capítulo. En particular, y para efectos de este libro, se hace énfasis en el
concepto de calidad, el cual ha cobrado auge desde hace varias décadas. Las
siguientes secciones describen con mayor detalle algunos conceptos funda-
308
Capítulo 12
Ingeniería y control de la calidad
mentales sobre la filosof ía de calidad, la administración total de la calidad
y la ingeniería de calidad. Asimismo, se introducen herramientas de análisis y control estadístico de procesos, así como una presentación sobre dos
de las principales normas internacionales en el ramo de la calidad: la Norma ISO 9000 y la Norma ISO 14000.
Aun cuando los términos de calidad hoy parecen ser bastante comunes, no fue sino hasta hace algunas décadas que cobraron fuerza. Probablemente dos de las personas que más tuvieron que ver fueron los consultores
W. Edwards Deming y Joseph M. Juran. Ambos nacieron en Estados Unidos, pero fue en Japón en donde sus ideas fueron bienvenidas. Deming proponía que la calidad no era una responsabilidad del trabajador, sino de la
gerencia, pero sobre todo que los directores debían promover los ambientes organizacionales en los que los problemas de calidad fueran detectados
y resueltos. Por su parte, Juran opinaba que la excelencia en calidad requería de iniciativas de mejoramiento continuo y una capacitación constante a
todos los niveles. El mejor ejemplo en la adopción de la filosof ía de calidad
lo representa el sector automotriz japonés. Antes de la década de 1970 las
armadoras estadounidenses eran las líderes indiscutibles en el mercado automotriz, mientras que las armadoras japonesas luchaban por incorporar
al mercado sus automóviles pequeños y de bajo consumo de combustible.
La crisis energética mundial ocurrida en la misma década obligó a los consumidores a voltear hacia los productos japoneses, lo cual, combinado con
la creencia de que los vehículos de Japón eran de mejor calidad, permitió
una entrada vertiginosa de autos orientales. Ante esta situación, muchas
armadoras estadounidenses no tuvieron otra opción que resignarse en el
corto plazo y empezar a adoptar rápidamente la filosof ía de calidad que
tanto éxito representó en Japón. En opinión de muchos expertos, la calidad
no es sólo una filosof ía, sino un importante arma de competitividad.
Calidad se entiende como la satisfacción o incluso la superación de las
expectativas del cliente. La calidad puede representarse de diversas formas,
por ejemplo:
1. El cumplimiento de las especificaciones anunciadas en los productos o servicios (duración, resistencia, consumo, tiempo de entrega,
etc.).
2. El valor del producto o servicio, entendido como la relación entre
lo que los clientes están dispuestos a pagar por un producto o servicio diseñado para un propósito en particular.
3. El servicio al cliente antes y después de la venta.
Las acciones orientadas a incrementar la calidad se suelen basar en los
programas de administración de la calidad total (TQM, por sus siglas en
inglés) y sus tres principios centrales: satisfacción del cliente, participación
e involucramiento de los empleados y mejora continua de la calidad. Un
programa TQM incluye una definición del cliente de cada empleado, los
12.1 La filosof ía de calidad
309
cuales pueden ser internos o externos. Los clientes internos suelen ser
aquellos empleados dentro de la empresa que requieren de los productos o
servicios de otros empleados de la misma empresa encargados de etapas
posteriores en el mismo proceso de producción. Cada una de las actividades que agregan valor son especificadas entre cada cliente interno de la
compañía, con la idea de que el producto o servicio final sea de la más alta
calidad. Los clientes externos son las personas o compañías que pagan por
el producto o el servicio. En este caso la empresa que adopte un programa
TQM debe orientar todos sus esfuerzos y recursos en un solo sentido: la
satisfacción del cliente.
Proceso de resolución de problemas. Éste es uno de los métodos más
aceptados para la solución de problemas dentro de las empresas, que tienen como meta desarrollar productos y servicios de calidad. Este método,
también conocido como la rueda de Deming, es considerado como una
parte medular del proceso de mejora continua de procesos y se divide en un
ciclo con cuatro pasos: planear-hacer-comprobar-actuar. En la primera
parte, el equipo de trabajo identifica el proceso que requiere mejoras, documenta el comportamiento de las principales variables y establece metas
de mejora. Posteriormente, los integrantes del equipo llevan a cabo el plan de
acciones y documentan los progresos. En la tercera etapa el equipo comprueba que se hayan alcanzado las metas establecidas en el primer paso y,
finalmente, documenta el proceso realizado, a fin de que se convierta en un
procedimiento normal para todos aquellos que deseen implementarlo. Es
importante recordar que este proceso es cíclico debido a que las oportunidades de seguir mejorando los procesos son permanentes y a que los procesos suelen ser parte de sistemas dinámicos, en donde las condiciones y el
entorno del proceso varían con respecto al tiempo.
Aparentemente, la adopción de círculos de calidad y de programas
TQM puede representar una inversión considerable en recursos. Sin embargo, el no cumplimiento de las especificaciones de los productos y sus
componentes puede representar una pérdida para la empresa. Lo anterior
fue estudiado por Genichi Taguchi, quien incluso definió la función de pérdida de calidad.
La función de Taguchi. Éste es uno de los enfoques creadores de la ingeniería de calidad, ya que combina conceptos de análisis de procesos y
métodos estadísticos para mejorar la calidad y reducir los costos. En este
sentido, la función de pérdida de calidad es igual a cero cuando las características de calidad de un producto o servicio coinciden exactamente con lo
especificado, es decir, con el valor objetivo. Sin embargo, el valor de la función de pérdida aumenta exponencialmente a medida que las características de calidad se alejan del valor objetivo y se aproximan a alguno de los
límites de tolerancia. En otras palabras, una pequeña desviación con respecto al valor objetivo provoca grandes pérdidas, tal y como se ilustra en la
figura 12.1. La conclusión final de Taguchi establece que es crucial evaluar
310
Capítulo 12
Ingeniería y control de la calidad
20
15
10
Límite
inferior
5
0
FIGURA 12.1 Función de
pérdida de calidad de Taguchi
2
Límite
superior
4
6
8
10
Valor
objetivo
y disminuir todas las formas de variabilidad asociadas al desempeño de un
proceso en vez de conformarse con haber cumplido y estar dentro de los
límites señalados en las especificaciones. Entender la variabilidad y disminuirla es una de las tareas fundamentales en torno a la calidad.
12.2 Variabilidad en el desempeño
En realidad todos los procesos y productos presentan variabilidades en
cuanto a su comportamiento o a las características del producto final. La
variabilidad se refiere a la discrepancia entre el desempeño actual y el esperado. Lo más importante es reconocer y medir estas variabilidades, ya que
representan costos mayores, menor calidad, mayor tiempo de flujo y, sobre
todo, insatisfacción en el cliente.
Congruente con la definición de clientes internos y externos indicada
en la sección de TQM, se reconocen dos categorías de variabilidades: externas e internas. Las variabilidades externas están relacionadas con la percepción de los clientes sobre un producto determinado, siendo las medidas
más típicas: los índices de satisfacción del cliente, el número de quejas recibidas y la clasificación (conocido como rankeo) de productos y empresas.
Por otro lado, existen las variabilidades internas en la empresa, las cuales
representan las diferencias entre los procesos y los productos para cada
unidad o servicio producido. No existen dos productos exactamente iguales, a pesar de que hayan salido de la misma línea de producción. Asimismo, dos clientes distintos pueden tener opiniones completamente diferentes sobre un mismo servicio o producto. El efecto de estas variabilidades
son distintos costos de operación, tiempos de manufactura, retrabajos y, en
resumen, problemas de calidad y percepción por parte del cliente. Una observación a este respecto es que los clientes prefieren equipo y productos
de comportamiento predecible, en vez de aquellos productos rápidos o so-
12.2 Variabilidad en el desempeño
311
fisticados, pero poco confiables en su comportamiento a lo largo del tiempo. También, por ejemplo, algunas personas preferirán un sistema de información relativamente lento, pero siempre operando, a un sistema rápido
que constantemente se traba y requiere ser reiniciado. En consecuencia,
una de las tareas más importantes del ingeniero industrial es identificar las
causas de la variabilidad (discrepancias entre el comportamiento real y el
comportamiento esperado de un proceso) y las acciones requeridas para
evitar o aminorar los costos asociados a dicha variabilidad, es decir, proveer productos y servicios de calidad.
Tipos y causas de variabilidad. El desempeño de un proceso es el resultado de tres factores principales:
•
•
•
La arquitectura del proceso (diseño de planta, capacidad y recursos empleados).
La operación del proceso (distribución de recursos, secuenciación
y programación de actividades).
El entorno (niveles de demanda y oferta).
La mezcla de estos factores tiene como consecuencia variabilidades en
el producto o servicio. En este contexto, existen dos tipos de variabilidad: la
variabilidad normal y la variabilidad anormal. La variabilidad normal es
aquella que se espera en todo proceso para un diseño dado y un entorno en
particular. La variabilidad anormal ocurre inesperadamente y perturba el
estado de equilibrio de un proceso.
La variabilidad normal es estadísticamente predecible e incluye variabilidades estructurales y variabilidades estocásticas. La variabilidad estructural se refiere a los cambios sistemáticos en el ambiente exterior, también
conocidos como cambios estacionales, mientras que la variabilidad estocástica ocurre aleatoriamente y se debe a causas inherentes a cada proceso
(también llamadas causas comunes). Las causas aleatorias pueden ser infinidad, pero cada una tiene sólo un pequeño efecto impredecible en el desempeño del proceso. Estas causas no pueden eliminarse con facilidad, a
menos que se rediseñe todo el proceso. Asimismo, el comportamiento del
proceso puede describirse como una distribución. Dicha distribución se
caracteriza por lo general a partir de su media, su expansión y su forma. El
Apéndice proporciona información más detallada sobre las principales
funciones de distribución.
La variabilidad anormal se debe a causas asignables o causas especiales
provocadas por situaciones externas al diseño del proceso. Las causas asignables son impredecibles y perturban el estado de equilibrio del proceso, en
donde sólo existen causas comunes; el resultado es un cambio impredecible en los parámetros de la curva de distribución de las salidas del producto
o servicio. Aunque las causas asignables suelen ser pequeñas en número,
cada una de ellas tiene un efecto significativo en el desempeño del proceso.
312
Capítulo 12
Ingeniería y control de la calidad
En términos generales, la misión del ingeniero es identificar si las causas de
variabilidad son normales o anormales, y posteriormente eliminarlas o disminuirlas. Para ello se requieren herramientas de análisis y técnicas de control estadístico de procesos, como las que se muestran en las siguientes
secciones.
12.3 Herramientas para analizar y registrar
la variabilidad
Existe una serie de herramientas utilizadas para analizar variabilidades a
partir de una serie de datos reunidos y una propuesta para organizarlos y
presentarlos. Las siguientes secciones introducen algunas de las herramientas más comunes y las ilustran con un ejemplo: la producción de un
mueble de oficina.
Hojas de registro. Suponga que la empresa fabricante de muebles ha
contratado a una empresa de medios para que realice una encuesta para
identificar los principales defectos identificados por los poseedores de los
últimos 1000 muebles de oficina que se han vendido. Los resultados de la
encuesta se muestran en la figura 12.2. Entre los principales defectos ilustrados en la hoja de registros figuran la decoloración del mueble, la mala
calidad en el servicio, el tiempo de entrega, el precio del producto y algunos
casos de rotura.
Gráficas de Pareto. Sin embargo, se observa que sólo una porción de los
1000 clientes entrevistados identificaron defectos en el mueble de oficina.
También se observa que la mayor parte de las quejas corresponden a un
solo tipo de defectos: la decoloración del mueble. Este resultado es comúnmente conocido como el principio de Pareto o el principio 80-20, en donde
se establece que 80% de los defectos estarían relacionados con sólo 20% de
los tipos de defecto. En la figura 12.3 se observa que más de 40% de los
defectos identificados corresponden a la decoloración; asimismo, más de
Tipo de defecto
Tiempo de respuesta
Costo
Rotura
Calidad en el servicio
Decoloración
FIGURA 12.2 Hojas de registro
Número de unidades de flujo defectuosas
Número de quejas
25
100
20
80
15
60
10
40
5
20
0
Porcentaje acumulado
313
12.3 Herramientas para analizar y registrar la variabilidad
0
Decoloración
Calidad en
el servicio
Tiempo de
respuesta
Costo
Rotura
Tipo de problema
FIGURA 12.3 Diagramas de Pareto
70% del total de defectos corresponden a decoloración o calidad en el
servicio. Un ingeniero encargado de disminuir los problemas asociados a
los muebles defectuosos deberá enfocar sus recursos inicialmente en las
principales causas del problema, es decir, dejar a un lado los problemas
originados con el tiempo de respuesta, el precio del producto o las roturas.
Histogramas. La variabilidad de un sistema o producto también suele
medirse a partir de curvas de distribución de frecuencias que indican el
comportamiento de una muestra de productos. Las dos medidas básicas a
caracterizarse son la media, definida como el valor esperado alrededor del
cual la distribución está centrada, y la desviación estándar, que representa
qué tan amplia o esparcida es la distribución alrededor de la media. El
Tipo de problema
14
12
Frecuencia (%)
10
8
6
4
2
0
36
FIGURA 12.4 Histogramas
37
38
39
40
41
42
Peso del mueble (kg)
43
44
45
46
Capítulo 12
Ingeniería y control de la calidad
45
Peso (kg)
314
42.5
40
37.5
35
1
5
10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90
Tiempo
FIGURA 12.5 Gráficas de corridas (run chart)
Apéndice del libro incluye una explicación más detallada sobre las funciones de distribución. En la figura 12.4 se observa un histograma que representa el peso del mueble de oficina. Conforme a los resultados se muestra
que 14% de los muebles pesan 41.5 kg, mientras que 11% pesan 42 kg, y así
sucesivamente. Un breve análisis estadístico de estos resultados indicaría
que la media del peso del mueble es de 41.2 kg, con una desviación estándar de 2.08 kg.
Gráficas de corridas (run charts). Las herramientas anteriores son útiles para analizar las salidas de producto en determinados procesos. Sin embargo, tienen la limitante de excluir una de las variables más importantes:
el tiempo. Las gráficas de corridas son una herramienta complementaria
para el estudio de variabilidades, con la particularidad que describe la variabilidad de un sistema con respecto al tiempo, y permite distinguir variabilidades inherentes a la estructura del proceso, como puede ser la estacionalidad. Así pues, la figura 12.5 representa los valores promedio del peso
del mueble medidos en los últimos 19 días de producción. A pesar que los
valores promedio de cada día fluctúan alrededor de los 40 kg, se observa
que en algunos casos llegan a ser mayores a 45 kg o menores a 37.5 kg, lo que
provoca productos de mala calidad.
Gráficas multivariables. Un análisis más detallado del peso del mueble
puede obtenerse a partir de gráficas multivariables, en donde el promedio
sea sólo una referencia y se complemente con los valores máximos y mínimos ocurridos cada día. Así, con este tipo de gráficas el ingeniero podría
analizar dos medidas de variabilidad: la variabilidad del peso del mueble en
los últimos 19 días, y la variabilidad en el peso del mueble cada día.
La figura 12.6 incluye un ejemplo en donde se muestran tres valores
para cada día evaluado. El valor del centro representa el promedio, mientras que los extremos corresponden a los valores máximos y mínimos que
fueron detectados a lo largo de cada día. Las cinco herramientas anteriores
12.4 Control estadístico de procesos
315
Peso (kg)
45
42.5
Máximo
Promedio
Mínimo
40
37.5
35
1
2
3
4
5
6
7
8
9
10 11 12 13 14 15 16 17
18 19 20
Día
FIGURA 12.6 Gráficas multivariables
son entradas de información indispensables para todo ingeniero encargado
de controlar y mejorar los procesos.
12.4 Control estadístico de procesos
Una de las técnicas estadísticas más aplicadas en la ingeniería industrial
para determinar si el resultado de un proceso concuerda con el diseño del
producto o servicio correspondiente, es el Control Estadístico de Procesos
(SPC, por sus siglas en inglés). El objetivo del SPC es identificar y eliminar
las causas de variabilidad.
Anteriormente se explicó la existencia de variabilidades normales y
anormales. En términos estadísticos, la variabilidad normal del desempeño
de un proceso suele representarse conforme alguna función de distribución con parámetros conocidos, entre las que destacan aquellas mostradas
en el Apéndice. Por otro lado, la variabilidad anormal ocurre cuando los
parámetros de la función de distribución (por ejemplo, su media, esperanza o varianza) cambian de manera incierta. Conforme a lo anterior, el ingeniero industrial debe trazar ciertas tareas y objetivos de control y disminución de variabilidades para el corto y mediano plazos.
Las actividades a mediano plazo están orientadas a la variabilidad normal del proceso, por lo que el ingeniero deberá identificar soluciones que
disminuyan esta variabilidad y mejoren la precisión del proceso. Ésta no
suele ser una tarea rápida y directa, sino que, por lo general, requiere de
mayores inversiones en recursos y tiempo, en relación con las actividades
de corto plazo. Invariablemente, se requiere de la participación de mandos
medios o superiores dispuestos a aprobar inversiones o modificaciones en
el diseño del producto, la arquitectura del proceso o la distribución de recursos.
316
Capítulo 12
Ingeniería y control de la calidad
Por otro lado, en el corto plazo las actividades del ingeniero de planta y
su equipo de trabajo pueden resumirse en:
1. Seleccionar un proceso y estimar la variabilidad normal.
2. Decidir si acepta la variabilidad del proceso como normal.
3. Identificar la presencia de variabilidad anormal en el desempeño
del proceso.
4. Aislar y eliminar cualquier causa de variabilidad anormal.
Para cumplir con los cuatro puntos anteriores, es necesario definir una política de límite de control para el proceso, así como utilizar gráficas de control. Ambos conceptos se explican a continuación.
Política de límite de control. En la medida que se monitorea el desempeño de un proceso, es posible observar si la variabilidad en su desempeño se
debe a causas normales o anormales. En caso que las variabilidades sean
normales, se dice que el proceso está bajo control y que el ingeniero acepta
las variabilidades como una consecuencia esperada del proceso. En contraste, si la variabilidad del proceso es anormal (debida a una causa identificable), se dice que el proceso está fuera de control. En este caso, será necesario detener el proceso, remover las causas anormales de variabilidad y
reiniciar el proceso.
Las decisiones respecto al tipo de variabilidad de un proceso requieren
como referencia una política de límite de control. Conforme a esta política
(también conocida como banda de control), se establece el intervalo o los
valores máximo y mínimo dentro de los cuales se considerará a un proceso
como bajo control. En su sentido más básico, la banda de control representa el intervalo de variabilidad aceptable. Como se mencionó, existen varias
funciones de distribución, presentadas en el Apéndice, que pueden emplearse para describir la variabilidad en el desempeño de un proceso. Dentro de las distribuciones suele emplearse una aproximación dada por la
Media
m
3s
FIGURA 12.7 Distribución
normal
2s 1s
1s
68.26%
95.44%
99.74%
2s 3s
12.4 Control estadístico de procesos
317
función normal y su tabla de valores, comúnmente encontrada en los libros. En la figura 12.7 se presentan los porcentajes de valores que están
ubicados dentro de ciertos intervalos de distribución normal. Por ejemplo,
se observa que el 68.26% de la muestra analizada en el proceso tendrá valores dentro de una desviación estándar de ±1 de la media de distribución.
Esta propiedad de las distribuciones normales es aprovechada en el análisis
de gráficas de control.
Gráficas de control. En el control estadístico de procesos, se define
cuantitativamente el intervalo de variabilidades aceptable con respecto a
un valor promedio, definido como m. Los valores máximos y mínimos que
limitan el intervalo se definen tomando en cuenta el grado de control deseado para el proceso, el cual suele representarse como z. Mientras más
pequeño sea el valor de z, mayor será el grado de control. Una vez establecido el grado de control, se define el número de desviaciones estándar (s)
con respecto a la media, que serán consideradas como aceptables y, en consecuencia, como los límites de la banda de control. El límite de control
máximo y el límite de control mínimo (UCL y LCL, respectivamente y por
sus siglas en inglés) están definidos en las siguientes fórmulas:
UCL m zs
LCL m zs
El resultado de estas dos fórmulas y la media del proceso es una gráfica
de control como la que se muestra en la figura 12.8. Las medidas de desempeño ubicadas fuera de los límites (superior o inferior) de control, indicarán que el proceso se encuentra fuera de control y que es necesario identificar las causas anormales y corregirlas.
El costo requerido para controlar el proceso será determinante en la
selección del grado de control, z. Valores de z más pequeños implican mayores posibilidades que alguna lectura del proceso esté “fuera de control”, lo
m 3s
Límite superior
de control (UCL)
Media del
proceso, m
99.74%
m 3s
Límite inferior
de control (LCL)
FIGURA 12.8 Gráfica de control
Tiempo
Señal de que ha ocurrido una
causa especial (anormal)
318
Capítulo 12
Ingeniería y control de la calidad
que puede provocar que el proceso sea analizado y corregido demasiadas
veces. Esto tiene como consecuencia una mayor asignación de recursos
(personal, tiempo y dinero), lo cual no necesariamente mejora el proceso ni
cumple más eficientemente con las expectativas del cliente. Una correcta
determinación de z requiere balancear los costos de investigación asociados a las ocasiones en que el proceso se encuentre “fuera de control”, con
los beneficios esperados por implementar mecanismos de control que repercutan en un alto porcentaje de productos dentro de las especificaciones.
Uno de los valores de z comúnmente empleados es z 3. La razón para
asignar este valor es que en caso que el comportamiento del proceso se ajuste a una distribución normal, se tendrá que 99.73% de las observaciones se
ubican dentro del intervalo de control (véase figura 12.7). Suposiciones similares pueden establecerse para otras distribuciones de probabilidad, como las que se indican en el Apéndice.
Para el caso particular del mueble que se está estudiando, se encontró
anteriormente una media m 42.2, y una desviación estándar s 2.08.
Por lo tanto, los límites de control estarán dados a partir de las siguientes
ecuaciones:
UCL 42.2 3(2.08) 48.44 kg
LCL 42.2 3(2.08) 35.96 kg
Algunos estudiantes se habrán dado cuenta que el concepto de límites
de control presentado en esta sección es análogo al de los intervalos de
confianza y las pruebas de hipótesis que se llevan a cabo en la materia
de estadística. En otras palabras, se establece inicialmente como hipótesis
nula que el proceso está bajo control (es estable) en una media, m; la hipótesis alternativa es que la media del proceso se ha movido a otro valor. La
regla de decisión es aceptar la hipótesis nula y no llevar a cabo ningún cambio en el proceso debido a que está bajo control. Por otro lado, si alguno de
los valores del proceso se ubica fuera del intervalo definido por los límites
de control, entonces se rechazará la hipótesis nula y se procederá a eliminar
las anormalidades. La figura 12.9 muestra algunos ejemplos sobre patrones
comúnmente encontrados en las gráficas de control, así como sus posibles
causas. Es importante destacar que aunque esta regla de identificación de
variabilidades es válida en la mayoría de las veces, puede ocurrir que un
proceso salga de control debido a causas normales, por lo que es necesario
revisar constantemente y de manera crítica el desempeño del proceso para
identificar y atacar este tipo de errores, lo cual bien puede hacerse con base
en diagramas causa-efecto.
La tarea del ingeniero puede representarse en la figura 12.10. Así, en el
corto plazo la prioridad será eliminar las fuentes de variabilidad que provocan que el proceso esté fuera de control y lograr la transición hacia un pro-
319
12.4 Control estadístico de procesos
Patrón
Descripción
Causas probables
Normal
Variación aleatoria
Falta de estabilidad
Causas especiales (o asignables): herramienta, material, operario, sobrecontrol
Tendencia acumulativa
Desgaste de herramientas
Cíclico
Diferentes turnos, fluctuaciones de voltaje,
efectos estacionales
FIGURA 12.9 Patrones usuales en gráficas de control
Peso
Proceso fuera de control
Proceso bajo control
Proceso mejorado
Límite superior
de control (UCL)
Media del
proceso, m
Límite inferior
de control (LCL)
Tiempo
FIGURA 12.10 Control y mejora de procesos
320
Capítulo 12
Ingeniería y control de la calidad
ceso estable y bajo control. En el largo plazo se busca mejorar el proceso y
ser más estrictos en cuanto al intervalo de variabilidad que será tolerado.
Esto implica toda una serie de tareas estructuradas conforme a un proyecto
y comúnmente implementadas bajo la metodología Six Sigma, la cual se
explica más adelante en este capítulo. Por ahora, queda identificar las posibles causas de variabilidad y las relaciones causa-efecto asociadas al producto o servicio final.
Diagramas causa-efecto. También conocido como diagramas de “espina de pescado” o “diagrama de Ishikawa”, debido al nombre de su desarrollador. En este tipo de diagramas se suele colocar en la “cabeza del pescado”
el principal problema de calidad que se requiere analizar. Asimismo, las
“espinas principales del pescado” representan las categorías más importantes de causas potenciales, mientras que las “espinas menores del pescado”
corresponden a causas específicas y probables asociadas a una categoría.
La figura 12.11 representa un diagrama causa-efecto. Es importante notar
que el resultado de los diagramas de pescado son relaciones cualitativas (o
hipótesis) sobre el efecto de una causa en el desempeño de un proceso. Por
lo tanto, es indispensable comprobar cada una de estas hipótesis y establecer cuantitativamente cada posible relación. Esto puede lograrse a partir de
los diagramas de dispersión.
Diagramas de dispersión. La figura 12.12 muestra cómo se relacionan
dos variables entre sí. Cada punto del diagrama representa una observación distinta, y conforme al ejemplo particular del peso del mueble, se interpreta que el peso final del producto depende linealmente de las especificaciones establecidas para el grosor de la lámina que forma parte de la
estructura del mueble. Como consecuencia, el ingeniero podrá estudiar
nuevamente las especificaciones de la lámina y su efecto en el producto.
Medición
Falla de equipo de prueba
Especificaciones incorrectas
Humano
Máquina
Problema
principal
Proceso
Material
FIGURA 12.11 Diagrama causa-efecto (espina de pescado)
12.5 Medición de la habilidad de un proceso
321
Peso del producto (kg)
FIGURA 12.12 Diagrama de dispersión
Especificaciones (mm)
12.5 Medición de la habilidad de un proceso
La habilidad de un proceso (capability) es definida como la capacidad para
cumplir con los requerimientos del cliente. Existen varias formas de medir
la habilidad del proceso, entre las que destacan: la fracción de productos
dentro de las especificaciones y las razones de capacidad del proceso.
Fracción de productos dentro de las especificaciones. Se refiere a la
fracción de productos cuyas especificaciones están dentro de los límites
máximo y mínimo (LMax y LMin, respectivamente). Esta cantidad puede
calcularse directamente a partir de observaciones y registros y utilizando
distribuciones estadísticas de probabilidad. Nuevamente, la variabilidad
del proceso (y no sólo el desempeño promedio) repercute directamente en
la habilidad del proceso y, en consecuencia, en el nivel de satisfacción del
cliente. En otras palabras, al cliente no le importa que un alto porcentaje
de los productos cumpla con las especificaciones, sino sólo el hecho que el
producto que adquirió salió defectuoso. La labor del ingeniero será asegurarse que un porcentaje muy pequeño de los productos (¡puede ser incluso
de 1 en cada 1000 millones de productos!) resulte con algún defecto.
Razones de capacidad del proceso, Cp y Cpk. Se parte del supuesto que
la mayoría de los valores de una distribución del proceso se encuentran
dentro de más o menos tres desviaciones estándar de la media. En consecuencia, se dice que un proceso es capaz, cuando la diferencia entre la especificación superior e inferior (LMax y LMin), conocida también como la
amplitud de la tolerancia, es mayor a seis desviaciones estándar. En un proceso centrado en la media del intervalo de especificaciones, se tendrá una
razón de capacidad del proceso, Cp, definida conforme a la siguiente ecuación:
322
Capítulo 12
Ingeniería y control de la calidad
Cp [LMax LMin]/[6s]
Para el ejemplo del mueble, si supone que las especificaciones superior
e inferior fueran 45 y 35 kg, respectivamente, y que la media del proceso
estuviera centrada en 40 kg, se tendría un Cp [(45 35)/(6 * 2.08)] 0.80.
La interpretación de esta fórmula tiene implicaciones muy prácticas
para el ingeniero industrial. El numerador especifica el intervalo de variabilidad que el cliente está dispuesto a tolerar (también conocido en la literatura como la “voz del cliente”), mientras que el denominador indica el nivel de
variabilidad asociado al desempeño del proceso (“voz del proceso”). En caso
que Cp sea mayor a 1.0, se tendrá que la amplitud de la tolerancia es mayor que el intervalo real observado; mientras que si Cp es menor a 1.0, se
concluirá que el proceso genera productos o servicios fuera de su tolerancia
permisible, lo cual es el caso particular del ejemplo del mueble.
El otro indicador de capacidad de un proceso se denota como Cpk e
indica el potencial del proceso para generar productos en relación con la
especificación superior e inferior, sin importar que el proceso esté centrado
en el valor medio del intervalo de especificaciones. Este indicador toma en
cuenta el desempeño del proceso con respecto a cada una de las especificaciones y se define en la siguiente ecuación:
Cpk Mínimo [(LMax m)/3s, (LMin m/3s)]
Es necesario elegir el valor mínimo entre las dos relaciones que se indican en la fórmula, ya que representaría el peor caso posible. La interpretación de Cpk es similar que en el caso anterior; es decir, si Cpk es mayor a 1.0
significa que el proceso es capaz de producir al menos 99.73% de sus productos o servicios dentro de las especificaciones. En contraste, un Cpk menor a 1.0 indica que el promedio del proceso se encuentra cerca de alguno
de los límites de tolerancia y, por lo tanto, se suscitan muchos defectos en
los productos o servicios.
La siguiente tabla sirve de referencia y muestra una relación entre el
radio de capacidad del proceso (Cp) y la cantidad de defectos (en partes por
millón) que ocurren. Se observa que un proceso con un Cp igual a 1.0, es
decir, con 99.73% de las observaciones dentro un intervalo de ±3s, presentará 3000 defectos por cada millón de productos, mientras que un proceso
con Cp igual a 2.0 sólo presentará dos defectos por cada billón de productos. Este estándar tan alto de calidad se justifica plenamente para varios
procesos, tal y como se explica en la sección de Six Sigma.
Cp
Defectos (ppm)
0.86
1
1.1
1.3
1.47
1.63
2
10 000
3000
1000
100
10
1
0.002
12.6 Six Sigma
323
12.6 Six Sigma
Se trata de una iniciativa de negocios adoptada desde la década de 1990 por
varias compañías, entre las que destacan General Electric, Motorola y Sony.
Esta iniciativa cobró reconocimiento rápidamente debido a los ahorros en
costos y al incremento sustancial en la calidad de los productos y servicios.
En palabras de Jack Welch, Director Ejecutivo mundial de la empresa General Electric: “Six Sigma es la iniciativa más redituable y uno de los retos
más importantes en toda la historia de General Electric” (Lowe, 1998).
Conforme al reporte anual de 1997 de la compañía, se observa que la implementación de Six Sigma en ese año representó más de 300 millones de
dólares de ingreso (Breyfogle, 1999).
En varias organizaciones Six Sigma significa una medida de calidad y
una serie de esfuerzos orientados a operar procesos prácticamente perfectos. Six Sigma es una metodología basada en información y análisis estadístico que busca eliminar los defectos de un proceso, lo cual se logra al
operar bajo un estándar de seis desviaciones estándar entre la media del
proceso y el límite de especificaciones más cercano. Los beneficios de esta
iniciativa se han hecho extensos a prácticamente todas las empresas trasnacionales y a varias empresas medianas y pequeñas orientadas a las áreas
de productos y servicios. La incorporación de esta iniciativa es hoy en día
una práctica común e incluso existen institutos que certifican a los practicantes de Six Sigma, típicamente bajo los conceptos de “Black Belts”,
“Change Agents” o “Trailblazers”, dependiendo de la compañía y la estrategia adoptada.
Pero más allá de las dificultades aparentes de alcanzar un estándar tan
alto como el de Six Sigma, en donde sólo habría un defecto por cada 1000
millones de unidades, tendría que haber antes una serie de justificaciones
para llevar a cabo estos esfuerzos; en otras palabras, se debería responder a
la pregunta de ¿por qué convendría operar bajo la filosof ía de Six Sigma?
La primera razón de peso está relacionada con el perfil del proceso y el
impacto de un bajo estándar de operación. Para ejemplificar esta parte, se
presenta a continuación un listado de equivalencias asociadas a los procesos en Estados Unidos que operan con 99% de nivel de calidad y que, sin
embargo, tendrían los siguientes problemas (Breyfogle, 1999):
•
•
•
•
•
20 000 artículos perdidos en el correo cada hora.
5000 cirugías erróneamente practicadas cada semana.
2 aterrizajes en extremo cortos o en extremo largos en la mayoría
de los principales aeropuertos cada día.
200 000 prescripciones médicas erróneas cada año.
7 horas cada mes sin el servicio de electricidad.
En otras palabras, lo que aparentemente era un alto estándar de calidad, representa en la realidad consecuencias catastróficas.
324
Capítulo 12
Ingeniería y control de la calidad
La segunda razón de peso asociada a la adopción de la iniciativa Six
Sigma se basa en que un componente de buena calidad no necesariamente
significa un producto final de buena calidad, tal y como se describe en el
siguiente ejemplo. Suponga que un producto está conformado por 100
componentes y cada componente tiene 99% de confiabilidad. Las posibilidades que todo el producto funcione conforme a las especificaciones son:
(0.99)100 0.366; es decir, 36.6% (¡muy bajo!)
Recuerde que aunque las partes individuales sean de muy buena calidad, lo importante es que el producto (todas las piezas) trabaje satisfactoriamente. El cliente percibe la calidad del producto, independientemente
de cuál pieza es la que falló. Un proceso Six Sigma es aquel cuyas especificaciones son tan estrictas que corresponden a seis desviaciones estándar
de la media, un Cp 2 (ver tabla anterior) y solamente dos defectos por
cada 1000 millones de productos. La figura 12.13 muestra un comparativo
para distintos números de desviaciones estándar con respecto a la media,
desde 1s hasta 6s, incluyendo el porcentaje de unidades ubicadas dentro
de las especificaciones y el número de defectos que ocurrirían por cada
millón de unidades.
Especificación
superior
Especificación
inferior
6s
5s 4s
3s
Límite de especificaciones
2s 1s
Media
m
1s
Porcentaje
2s 3s 4s
5s
Defectos (ppm)
± 1 sigma
68.27
317 300
± 2 sigma
95.45
45 500
± 3 sigma
99.73
2 700
± 4 sigma
99.9937
± 5 sigma
99.999943
0.57
± 6 sigma
99.9999998
0.002
FIGURA 12.13
6s
63
325
12.7 Mejora en la habilidad de un proceso
Ajustes por cambios en la media. En empresas como Motorola, dada la
medición sigma la empresa calcula la fracción de defectos después de permitir un pequeño cambio en la media, equivalente a ±1.5 desviaciones estándar, en relación con el valor central en las especificaciones. Permitir este
pequeño cambio tiene como consecuencia que un proceso Six Sigma produzca en promedio 3.4 defectos por cada millón de unidades, tal y como se
ilustra en la siguiente tabla:
Sigma
3
4
5
6
Cp
1
1.33
1.667
2
Defectos (ppm)
66 810
6210
233
3.4
La unidad de medición S-Sigma se define conforme a la siguiente fórmula:
S (US LS)/2s
y en el caso particular del mueble de oficina centrado en la media, con una
desviación estándar de 2.08 y con unos límites superior e inferior de 45 y 35
kg, respectivamente, se tendría:
S (45 35)/2(2.08) 2.40; es decir, un proceso 2.4-Sigma.
Si observamos en la tabla anterior, se concluye que moverse de 3-Sigma
a 4-Sigma representa una mejora de aproximadamente 10 veces. Asimismo, moverse de 4-Sigma a 5-Sigma representa una mejora de aproximadamente 30 veces (es decir, 6210/233 26.65). Finalmente, moverse de 5-Sigma a 6-Sigma representa una mejora de aproximadamente 70 veces. Se
estima que la mayoría de las empresas opera procesos 4-Sigma, mientras
que las mejores empresas en el mundo tienen estándares de calidad obtenidos mediante procesos 6-Sigma.
12.7 Mejora en la habilidad de un proceso
Una vez determinada la habilidad del proceso para cumplir con las especificaciones de diseño, es posible efectuar mejoras en el mismo, así como
cuantificar el impacto de éstas. Las formas comunes para mejorar la habilidad de un proceso son mover la media del proceso, tal y como se comentó
en el caso de Motorola, reducir la variabilidad del proceso o una mezcla de
ambas.
Mover la media del proceso. Una vez descrita la distribución de probabilidad de las unidades de salida de un proceso, se observaría que la colocación de la media del proceso repercute directamente en el porcentaje de
unidades de salida dentro de las especificaciones. Como se ilustra en la figura 12.14, en algunas ocasiones puede ocurrir que la media del proceso
326
Capítulo 12
Ingeniería y control de la calidad
Densidad de probabilidad de peso del producto
Peso (kg)
LS = 37.5
40
41.2.5
US = 42.5
FIGURA 12.14 Cambio en las especificaciones de diseño
(41.2 kg, según el ejemplo del mueble, y la figura 12.4) esté alejada de las
especificaciones de diseño para el mismo. Mover la media del proceso a 40
kg, considerando que en la sección anterior se determinó que se trataba de
un proceso 2.40-Sigma, provocaría un cambio en la proporción de muebles
cuyo peso cumple con las especificaciones.
La sugerencia para el ingeniero es analizar las salidas del producto y
considerar la conveniencia de restablecer las especificaciones de diseño del
producto o la media del mismo y provocar que ambos coincidan. La consecuencia de esto será que un mayor número de unidades cumplirá con las
especificaciones. Cualquier mejora posterior en la habilidad del proceso se
logrará disminuyendo la variabilidad del mismo.
Reducir la variabilidad del proceso. Los beneficios asociados a reducir la
variabilidad del proceso se observan en las figuras 12.15 y 12.16. Como
Densidad de probabilidad
del peso del producto
FIGURA 12.15 Reducción de
la variabilidad del proceso
Peso (kg)
LS = 37.5
40
US = 42.5
327
12.8 Las normas ISO 9000 e ISO 14000
Valor nominal
6-Sigma
4-Sigma
2-Sigma
Especificación
superior
Especificación
inferior
Media
FIGURA 12.16 Efectos de la habilidad de la disminución de la variabilidad del proceso
puede observarse en ambas figuras, disminuir la variabilidad del proceso
equivale a disminuir la desviación estándar del mismo y, en consecuencia,
se tiene un mayor número de unidades de salida que caerán dentro del intervalo de especificaciones. Reducir la variabilidad de un proceso suele ser
una tarea de mayor dificultad que la de mover la media del proceso, ya que
requiere de observaciones, ajustes, pruebas y errores o estudios más detallados, por lo que, en lo general, es una responsabilidad del gerente de proceso e implica la adopción de proyectos Six Sigma y las características indicadas en la sección anterior.
12.8 Las normas ISO 9000 e ISO 14000
Los conceptos presentados anteriormente pueden ser incorporados en
cualquier empresa proveedora de productos o servicios. Esta versatilidad
en la implementación de la filosof ía y las herramientas de calidad ha obligado a la elaboración de estándares y mecanismos de certificación de calidad reconocidos internacionalmente. La ventaja principal detrás de estas
certificaciones se basa en la premisa de que un producto o servicio de calidad requiere que todos sus componentes (y por ende, todos sus proveedores) sean realizados con el mismo alto estándar de calidad. En consecuencia, las empresas suelen recurrir a criterios internacionales para la selección
de proveedores, entre los que destacan el cumplimiento y certificación de
328
Capítulo 12
Ingeniería y control de la calidad
las normas ISO 9000 e ISO 14000 de la Organización Internacional para la
Estandarización (ISO, por sus siglas en inglés).
Conforme a lo registrado en septiembre de 2004 en la página web oficial de la ISO (www.iso.org), los estándares ISO 9000 e ISO 14000 han sido
implementados por más de 634 000 organizaciones en 152 países. La familia de normas ISO 9000 se ha convertido en una referencia internacional
para los requerimientos de calidad especificados en los acuerdos comerciales entre empresas, mientras que la familia de normas ISO 14000 se encuentra en el camino de lograr que las organizaciones cumplan con sus
responsabilidades y oportunidades de mejora ambiental.
ISO 9000. La familia de normas ISO 9000 se orienta principalmente a la
gestión de la calidad. Esto significa que se analiza lo que debe hacerse para
satisfacer plenamente los requerimientos de calidad del cliente y los requerimientos regulatorios necesarios, y al mismo tiempo, incrementar constantemente la satisfacción del cliente, la calidad y mejorar constantemente
el desempeño de los procesos.
Anteriormente, la familia de normas ISO 9000 estaba compuesta de
cinco documentos principales: ISO 9000 a ISO 9004. Las normas ISO 9000
y la ISO 9004 son más generales; la primera contiene instrucciones generales para la selección y la implementación de estas normas, mientras que la
última contiene instrucciones para interpretar correctamente las demás
normas. Las normas ISO 9001, ISO 9002 e ISO 9003 son más específicas. La
ISO 9001 abarca diversos aspectos necesarios en todo programa de calidad
a implementarse en aquellas compañías que diseñan, fabrican, instalan y
dan servicio a productos. Ésta es la norma más completa y, por lo tanto, la
más dif ícil de cumplir. Por otra parte, la Norma ISO 9002 contiene aspectos
similares a los de la norma anterior, pero se enfoca a compañías que elaboran sus productos de acuerdo con los diseños y requerimientos de cada
cliente o realizan sus actividades de diseño y servicio en una ubicación f ísica
distinta. Finalmente, la ISO 9003 se enfoca solamente en el proceso de producción y, por lo tanto, es la más limitada. Todavía existen muchas referencias y documentos relacionados con esta versión anterior de las normas ISO
9000, aunque cada día aumenta la necesidad por parte de las organizaciones
para modificar su actual sistema de calidad y adoptar el nuevo modelo.
Actualmente las normas ISO 9000 se encuentran agrupadas en una
sola versión actualizada que incluye a las anteriores. Estas nuevas normas
son llamadas ISO 9000: 2008 ya que remplazan la versión de 2000. Esta
nueva versión tiene cuatro normas principales, ISO 9000 (Fundamentos y
vocabulario), ISO 9001 (Requisitos), ISO 9004 (Guía para la mejora del
desempeño) e ISO 9011 (Lineamientos guía para auditorías de calidad y
ambientales). La nueva versión está dirigida a un mayor número de sectores que demandan sistemas de calidad, como son los servicios, la educación, investigación y desarrollo. Asimismo, la nueva versión marca mayor
énfasis en la mejora continua como herramienta para incrementar la efi-
12.8 Las normas ISO 9000 e ISO 14000
329
ciencia y la eficacia, y finalmente, disminuye notablemente los requisitos de
documentación, además de incluir un lenguaje más sencillo en la redacción
de la norma.
ISO 14000. La familia de normas ISO 14000 está relacionada con la gestión ambiental de la empresa, es decir, aquellas actividades que debe llevar
a cabo la compañía para: minimizar los efectos adversos al medio ambiente
causados por su actividad y lograr una mejora continua de su desempeño
ambiental.
La familia de normas ISO 14000 también es amplia y se subdivide principalmente en los siguientes grupos de normas:
Sistemas de administración ambiental (Environmental Management
Systems, EMS), es decir, lo necesario para lograr una mejora continua en
términos de consumo de recursos y emisiones de contaminantes.
Evaluación del desempeño ambiental (Environmental Performance
Evaluation, EPE), en donde se especifica todo lo necesario para lograr la
certificación.
Nomenclatura ambiental (Environmental Labelling, EL), en este grupo
de normas se proporcionan las definiciones oficiales de varios términos
ambientales utilizados en las demás normas, como: reciclable, eficiente en
términos de consumo de recursos y energía, no dañino a la capa de ozono,
etcétera.
Evaluación del ciclo de vida (Life Cycle Assessment, LCA), en donde se
analiza y evalúa el desempeño ambiental de un sistema, tomando en cuenta toda la vida del producto, es decir, desde la extracción de materiales,
pre-procesamiento, fabricación, uso, disposición final, reciclado, reutilización, etcétera.
La duración de los procesos de certificación ISO 9000 e ISO 14000 es
variada; dependiendo del tamaño de la empresa, puede llevar dos años o
más. El costo de estas certificaciones va más allá del pago a los auditores,
debe incluir el costo del tiempo dedicado por los empleados a las actividades de documentación (diagramas de flujo, programas de software, videocasetes y archivos electrónicos) y el costo incurrido por la implementación
de prácticas de mejora continua. Por ejemplo, la empresa ABB Process Automation, Inc., fabricante de sistemas de control y automatización, tuvo
que destinar 25 000 horas de trabajo en el curso de nueve meses, y $1.2
millones de dólares, incluida la suma de $200 000 por gastos de auditoría,
para obtener la certificación ISO 9001 (Krajewski, 2002). Los beneficios
principales son la aceptación de sus productos y servicios en un mayor número de mercados, además del prestigio que representa gozar de una certificación internacional sobre las prácticas de la empresa. Finalmente, es importante considerar que una vez que se cuente con la certificación, las
empresas deberán ser inspeccionadas periódicamente por auditores externos para asegurarse que se mantiene la filosof ía y las prácticas de calidad y
mejora continua.
330
Capítulo 12
Ingeniería y control de la calidad
EJERCICIOS PROPUESTOS
1. Investigue y explique cuáles son los ocho principios de la gestión de calidad.
2. El dueño de un negocio de lavado de autos encuestó a sus clientes durante la semana para
saber qué es lo que ellos consideran que debería mejorarse. A continuación los resultados:
Votos
Tiempo o
espera
Ubicación
Horario
Zona de
espera
Trato al
cliente
Precios
Imagen
local
Calidad
lavado
92
5
1
2
79
8
25
4
De igual forma, tomó el tiempo promedio por día que cada empleado tarda en lavar un
auto de tamaño mediano:
Día
Empleado 1
Empleado 2
Empleado 3
Empleado 4
Empleado 5
1
23.6
25.3
29.6
25.6
23.8
2
25.2
24.2
28.6
24.2
24.5
3
24.6
24.4
23.1
23.7
23.9
4
24.5
23.1
26.3
24.7
22.4
5
23.4
24.9
23.4
23.4
24.2
6
25.4
24.1
29.5
24.8
22.2
Dibuje la gráfica de Pareto de los resultados de la encuesta. ¿Qué puede concluir?
El dueño del negocio pretende ofrecer a sus clientes que su auto será entregado en
máximo 26 minutos (cumpliéndose al menos 95%), ¿es esto posible?
Realice la gráfica de control de los tiempos con z 2. ¿Existe algún empleado que esté
trabajando ineficientemente con respecto a los demás?
3. Explique con sus propias palabras en qué consiste Six Sigma.
Referencias
Anupindi, R., Chopra, S., Deshmukh, S. D., Van
Mieghem, J. A. y Zemel, E. (1999). Managing
Business Process Flows. Prentice Hall, Estados
Unidos.
Breyfogle, F. W. (1999). Implementing Six
Sigma. Smarter Solutions Using Statistical
Methods. John Wiley and Sons, Estados
Unidos.
Referencias
Deming, W. E. (2000). Out of the Crisis. MIT Press,
Estados Unidos.
Deming, W. E. (2000). The New Economics. For
Industry, Government, Education, 2a. Ed. MIT
Press, Estados Unidos.
Evans, J. R. (1991). Statistical Process Control for
Quality Improvement. A Training Guide to
Learning SPC. Prentice Hall, Estados Unidos.
Gaal, A. (2001). ISO 9001:2000 for Small Business.
Implementing Process Approach Quality
Management. CRC Press LLC, Estados Unidos.
Hauser, J. y Clausing, D. (1988). “The House of
Quality”, en Harvard Business Review, mayojunio, pp. 63-73.
International Organization for Standardization, ISO.
(2000). ISO 9000:2000 (E). Quality Management
Systems – Fundamentals and Vocabulary, 2a.
Ed. Suiza.
Juran, J. M. y Blanton G. A. (1998). Juran’s Quality
Handbook, 5a. Ed. McGraw-Hill, Estados
Unidos.
Krajewski, L. y Ritzman, L. (2002). Administración
de operaciones. Estrategia y análisis, 5a. Ed.
Prentice Hall.
331
Lowe, J. (1998). Jack Welch Speaks. John Wiley and
Sons, Estados Unidos.
Mitra, A. (1998). Fundamentals of Quality Control
and Improvement, 2a. Ed. Prentice Hall, Estados
Unidos.
Monden, Y. (1990). El sistema de producción de
Toyota. Instituto de Altos Estudios Empresariales, Pricewaterhouse, Editorial Macchi, Buenos
Aires, Argentina.
Nahmias, S. (2003). Production and Operations
Management, 4a. Ed. McGraw-Hill.
Romero, S. y Romero, O. (2003). “Carrera contra el
tiempo. Innovación y desarrollo dinámico de
productos”, en Dirección Estratégica, ITAM,
Núm. 6, Año 2, pp. 45-49.
Spear, S. y Bowen, H. K. (1999). “Decoding the DNA
of the Toyota Production System”, en Harvard
Business Review, septiembre-octubre, pp.
97-106.
Taguchi, G. y Clausing, D. (1990). “Robust Quality”,
en Harvard Business Review, enero-febrero,
pp. 65-75.
CAPÍTULO
13
AUTOR:
Dr. David Muñoz Negrón
Diseño de planta
13.1 Planeación de un estudio de diseño de planta
13.2 Localización de plantas, almacenes y servicios
dentro de la planta
13.3 Disposición de planta
Antes de tomar alguna decisión sobre la tecnología, la infraestructura y, en
general, sobre el diseño del sistema de producción, debemos reconocer que
la tecnología de proceso y la infraestructura disponible en la empresa deben
mantener una estrecha relación con la estrategia de la misma. Las consideraciones estratégicas, como el volumen de producción, el mercado meta y
el nivel de flexibilidad para producir nuevos diseños, deben determinar las
características de los procesos y la tecnología que conviene implantar. Por
ejemplo, la disposición de una planta determina, en gran medida, cómo
está organizada la empresa para responder a las exigencias del mercado, ya
que si la empresa tiene un producto dirigido a un mercado de alta demanda,
puede ser conveniente dedicar una línea exclusivamente para la manufactura del mismo, en vez de conducir la manufactura del producto a través de
unidades funcionales que producen diferentes productos, dado que esto
generaría costos innecesarios por transporte y apertura de procesos.
En este capítulo presentamos los principales conceptos y técnicas que
deben tenerse en cuenta para alinear el proceso de diseño del sistema de
producción con la estrategia competitiva de la empresa, con el objetivo
de obtener ventajas competitivas en calidad, productividad y utilización de
recursos. El capítulo inicia con la introducción de los elementos que deben
considerarse en el proceso de planeación y diseño del sistema de producción (área llamada diseño de planta). Posteriormente se revisan las técnicas
334
Capítulo 13
Diseño de planta
y los aspectos específicos que deben considerarse en el diseño de una planta, desde el punto de vista de ingeniería industrial, como la localización y la
disposición de la planta.
13.1 Planeación de un estudio de diseño de planta
Existen varias razones para estar interesados en analizar el diseño y la disposición de las instalaciones de una planta. En primer lugar, esta necesidad
surge cuando se decide instalar una nueva planta y se quieren aprovechar
al máximo los recursos de que se dispone. Sin embargo, existen otras situaciones en las cuales se podría realizar este tipo de análisis, por ejemplo:
•
•
•
•
Si se toma la decisión de desarrollar nuevos productos en la planta
o dejar de producir algunos.
Si se introducen cambios en el diseño de los productos, los cuales
originan un cambio necesario en el sistema de producción, ya sea
por la introducción de nuevos procesos, por la eliminación de algunos de ellos o por cambios en la secuencia de los procesos.
Si se observa un cambio significativo en los patrones de demanda
de los productos, que promueve un cambio en los niveles de producción.
Si se decide introducir cambios administrativos estratégicos que
afectan la operación de la planta; por ejemplo, si se decide centralizar la distribución de los materiales (insumos, repuestos y herramientas) en un almacén central, remplazando una administración
descentralizada por departamentos o talleres.
El diseño de una planta comprende, fundamentalmente, tres aspectos: la
infraestructura, las instalaciones y el sistema de manejo de materiales. La
infraestructura consiste en el local, su ubicación y los servicios disponibles
(agua, luz, fuentes de energía, etc.). Las instalaciones se componen del
equipo, la maquinaria y el mobiliario requerido para llevar a cabo los procesos de producción y de apoyo a los mismos; el diseño de las instalaciones
comprende tanto la organización de las mismas en unidades —talleres y
departamentos— como la disposición f ísica de las unidades para lograr los
objetivos de producción, buscando niveles adecuados de calidad, productividad y de utilización de recursos. El sistema de manejo de materiales consta de los mecanismos que permiten la interacción de todas las unidades de
la planta (medios de transporte y comunicación). Como podemos imaginar, el diseño de una planta se puede ver desde la perspectiva de las diferentes áreas que participan en él: arquitectura, ingeniería mecánica, ingeniería
civil, ingeniería industrial, etc., aunque en este capítulo nos enfocamos en
las técnicas para diseñar y evaluar la disposición de una planta, su localización y su habilidad para responder a las exigencias del mercado, aspectos
13.1 Planeación de un estudio de diseño de planta
FIGURA 13.1 Pasos de un
estudio de diseño de planta
335
Localización y
estrategia
Procesos y
actividades
Vínculos
departamentales
Requerimientos
de espacio
Alternativas de
disposición
Evaluación de
alternativas
Selección de la
disposición
Implantación y
mantenimiento
más relacionados con la ingeniería industrial. A continuación presentamos
una visión general del proceso de diseño de una planta.
Pasos de un estudio de diseño de planta. Como ya se mencionó, el diseño y la disposición de las instalaciones de una planta afectan significativamente su desempeño, por lo que debemos planear cuidadosamente este
proceso. En la figura 13.1 sugerimos una secuencia de pasos necesarios para diseñar una planta, desde el punto de vista de la ingeniería industrial. A
continuación detallamos los elementos sugeridos en este proceso.
1. Localización y estrategia: un estudio de diseño de planta debe empezar por considerar la localización y las estrategias de la empresa
que serán apoyadas con las instalaciones adecuadas. Deben tomarse en cuenta las estrategias de las áreas de mercadotecnia, manufactura, distribución, compras, manejo de materiales e informática, entre otras, considerando que un diseño de planta inadecuado
puede impedir la implantación de algunas de las estrategias de la
empresa. Por ejemplo, un plan agresivo de mercadotecnia podría no
conseguir el objetivo final (mayores ventas), si encontramos que
no existe la capacidad de producción para atender la demanda y
que la expansión de la capacidad es lenta. El sistema de manejo de
materiales debe considerar decisiones estratégicas, como las unidades de volumen, los volúmenes de producción, el tipo de empaque y el nivel de automatización, entre otras. Similarmente, la localización y la disposición de la planta deben tomar en cuenta
consideraciones estratégicas, como: tiempos de respuesta a los pedidos, tipo de tecnología de proceso, tamaño de los lotes de producción, niveles de inventario del material en espera, restriccione de
capital, estructura organizacional y nivel deseado de servicio a los
clientes.
336
Capítulo 13
Diseño de planta
2. Procesos y actividades: el segundo punto a considerar para el diseño de la planta lo constituyen las características de los productos y
de los procesos que deben realizarse en ella. Se deben tomar en
cuenta los diagramas de diseño y de ensamble de los productos, la
maquinaria, el equipo y la tecnología de proceso, así como el nivel
de flexibilidad que se requiere para renovar el diseño de los productos y variar los volúmenes de producción. Esta información
permite establecer las actividades que deben realizarse en la planta
y la forma como se deben conducir. Es necesario indicar que para
los propósitos del diseño de planta las unidades de planeación no
son necesariamente unidades administrativas de la estructura organizacional de la empresa, sino unidades que, a menudo, se denominan departamentos de planeación, y se definen como grupos
de estaciones de trabajo que serán considerados como una unidad
en el proceso de diseño de la disposición de la planta. Un departamento de planeación puede o no coincidir con un departamento o
unidad de la estructura organizacional de la empresa.
3. Vínculos departamentales: la interacción (vínculos departamentales) entre los diferentes departamentos de planeación constituye la
base para tomar decisiones en el proceso de diseño de la planta. La
información necesaria para describir estas interacciones puede
encontrarse en los diagramas de flujo y de ensamble para la manufactura de los productos, en los organigramas y en los planes de
producción. Es conveniente cuantificar estas interacciones, por
ejemplo, indicando los volúmenes (mensuales o anuales) de materiales que se transportarán de un departamento a otro o el número
de operaciones de coordinación que se espera entre departamentos por unidad de tiempo. Asimismo, existen diferentes elementos
que deben considerarse para describir la interacción entre los departamentos. A continuación exponemos las principales categorías de factores relevantes para el estudio de diseño de una planta.
•
•
•
Flujo de materiales, personas, equipo y de información entre
los departamentos de planeación o las estaciones de trabajo.
Relaciones de tipo organizacional, que son consecuencia de
actividades de control, supervisión, delegación de funciones o
subordinación entre funcionarios o empleados de la empresa.
Modalidades de los sistemas de control; por ejemplo, el tipo de
control de los materiales (centralizado o descentralizado), el
sistema de control de los inventarios (revisión continua o periódica), las modalidades para el procesamiento de las órdenes
de producción (producción en masa o por lotes, reglas para
asignar prioridades) y los niveles de automatización para el
control de la calidad en los procesos, entre otras.
13.1 Planeación de un estudio de diseño de planta
•
•
337
Consideraciones para la protección del medio ambiente, entre
las que se pueden mencionar: reglas para la seguridad de los
trabajadores, temperatura, ruido, humedad, condiciones de
limpieza y medios de desecho apropiados.
Factores no considerados anteriormente, como requerimientos especiales para el manejo de materiales, para el tratamiento de desechos químicos o para la implantación de servicios
especiales requeridos (por ejemplo, purificación del agua).
4. Requerimientos de espacio: éste es uno de los pasos en los que debe
tenerse especial cuidado, ya que los requerimientos de espacio generalmente se planean para un horizonte de cinco a diez años, por
lo que existe una incertidumbre relativamente alta en cuanto a la
capacidad de producción requerida. Por lo mismo, se recomienda
planear de abajo hacia arriba, es decir, determinar los requerimientos de espacio para las estaciones de trabajo, agregar requerimientos para obtener los de los departamentos de planeación
y, finalmente, los de la planta en su conjunto. El espacio de una
estación de trabajo está determinado por el espacio para el equipo
(incluyendo el movimiento de las máquinas y el espacio requerido
para el mantenimiento), para el manejo de materiales (recibo, almacenamiento, material de embalaje, herramientas, etc.) y para el
personal (operadores, espacios para ingreso y salida, etc.). La definición del espacio para una estación de trabajo puede estar apoyada en un estudio de movimientos (término que proviene del inglés motion study), considerando factores importantes, como:
•
•
•
•
•
Permitir que el operador recoja y desplace los materiales sin tener que realizar esfuerzos innecesarios (por ejemplo, caminar).
Permitir que el operador logre niveles altos de productividad y
de eficiencia.
Tratar de minimizar el tiempo que se pierde en el manejo manual de materiales y equipos.
Lograr un trabajo libre de riesgos y proporcionar la máxima
comodidad para los técnicos u operadores.
Eliminar las condiciones de peligro o de fatiga (por ejemplo,
mental o visual).
Una vez que se determinan los espacios para las estaciones de trabajo, éstos pueden agregarse para definir los espacios que requerirán los departamentos de planeación, considerando los espacios
para los servicios comunes a las estaciones (baños, pasillos, depósitos, manejo de materiales, entre otros).
5. Alternativas de disposición: teniendo en cuenta que el logro de un
buen diseño de planta tiene algo de arte y algo de ciencia, debemos
338
Capítulo 13
Diseño de planta
tratar de generar el mayor número posible de (buenas) alternativas
de disposición, ya que ésta es justamente la parte artística. Las alternativas surgen al considerar diferentes maneras, tanto para la
disposición física de los departamentos de planeación como para
el manejo de materiales y la disposición de las estaciones de trabajo dentro de los departamentos.
6. Evaluación de alternativas: las alternativas de la disposición y del
diseño de la planta pueden evaluarse con la ayuda de diferentes
modelos (por ejemplo, simulación). Además, existe una gama de
programas de software disponibles para este propósito, en los que
el criterio de costos de operación es el más difundido para comparar las alternativas de la disposición y el diseño de la planta.
7. Selección de la disposición: se deben establecer los criterios de selección y, en la medida de lo posible, efectuar una evaluación cuantitativa de los mismos. Es necesario tener en cuenta que el costo de
operación e instalación no es el único criterio. La evaluación de los
criterios depende de los diferentes escenarios que pueden presentarse en cuanto a los volúmenes de producción que se requerirán y
en cuanto a la flexibilidad requerida para la innovación de productos, así como en cuanto a los cambios a corto plazo en el programa
maestro de producción.
8. Implantación y mantenimiento: por último, una vez decidido el
diseño de planta más apropiado, éste debe implantarse y supervisarse, con el objetivo de corregir las deficiencias que puedan encontrarse en la práctica. Asimismo, deben establecerse los planes
apropiados para el mantenimiento de la planta, considerando que
los cambios administrativos que se introduzcan pueden implicar
cambios tanto en los sistemas de manejo de materiales como en la
disposición de la planta.
Debemos indicar que si bien el enfoque que estamos presentando para
el diseño de planta es el más difundido y tiene la ventaja de presentar una
secuencia natural de pasos a seguir, existen enfoques que pudieran ser
apropiados para situaciones particulares; para mayor información se sugiere consultar Tompkins et al. (2011).
13.2 Localización de plantas, almacenes
y servicios dentro de la planta
Sin duda la variable de desempeño más importante para la localización de
las empresas es la rentabilidad, a menudo con miras a mediano o a largo
plazo. Esta rentabilidad depende de diversos factores, como el costo por
transporte (de insumos y/o productos terminados), el monto de la inversión requerida, la disponibilidad de servicios y/o fuentes de energía, el mercado potencial, la política laboral, la política arancelaria u otros factores de
13.2 Localización de plantas, almacenes y servicios dentro de la planta
339
mayor o menor importancia, dependiendo del caso particular. La localización de las plantas, los servicios y, en general, el diseño del sistema de distribución y de atención al cliente son decisiones de fundamental importancia para el éxito o fracaso de un proyecto empresarial. Es necesario tener en
cuenta que una vez localizada la planta o el almacén, la decisión de trasladarla hacia una localización más conveniente es poco factible, ya que esta
decisión implica una inversión considerable, además de cambios radicales
en la operación del negocio.
En esta sección se presentan los elementos más importantes a considerar cuando se debe decidir la localización de las plantas, los almacenes o de
los servicios dentro de la planta, haciendo énfasis en los factores susceptibles de ser cuantificados y en el uso de modelos que pueden apoyar este
proceso. En primer lugar se exponen los elementos a considerar en un estudio de localización de planta y/o almacenes; posteriormente se presentan
las principales técnicas que pueden utilizarse para apoyar la toma de decisiones.
Planeación de la localización de plantas y almacenes. Los estudios de
localización son de naturaleza muy variada, ya que la distribución de los
bienes requeridos para la producción y la venta del producto forman un
sistema (véase figura 13.2) que implica tanto la distribución de insumos hacia las plantas, como la de productos terminados hacia los almacenes, las
tiendas y los clientes. Dif ícilmente podríamos imaginar una planeación global de la localización de todos los elementos del sistema de distribución; sin
Proveedores
Inventario de materia prima
Pedidos
Planta manufacturera
Inventario de producto final
Almacén regional
Inventario de producto final
Envíos
Almacenes de tiendas
Inventario de producto final
Atención de clientes
Inventario de producto final
FIGURA 13.2 Elementos de un sistema de distribución
340
Capítulo 13
Diseño de planta
embargo, a menudo se realizan estudios parciales para decidir, por ejemplo,
la localización de las plantas respecto a la localización de los proveedores y
los almacenes o la localización de los almacenes respecto a la localización
de las plantas y las tiendas de atención a los clientes.
En primer lugar, es conveniente destacar que los almacenes necesitan
un sistema de distribución, ya que si bien los almacenes son una fuente de
costo, son de fundamental importancia para lograr que el sistema de distribución proporcione un servicio eficiente al cliente para reducir los costos
de distribución en función de la consolidación de envíos y de la especialización. Algunas de las ventajas que se obtienen por utilizar almacenes son
las siguientes:
•
•
•
•
La consolidación (agrupación de productos diferentes en el mismo
envío, véase figura 13.3) permite economizar en el transporte sin
incurrir en altos costos por inventario, ya que se pueden transportar grandes volúmenes (heterogéneos) en una sola operación.
La utilización de almacenes en puntos estratégicos del sistema de
distribución permite que las plantas se puedan localizar más cerca
de los centros de abastecimiento, sin causar mayores costos de
transporte hacia los centros de demanda.
Debido a la especialización en la atención al cliente y a la adecuada
localización de los almacenes, éstos pueden atender los pedidos en
menor tiempo, generando una menor probabilidad de desatender
un pedido.
En el caso de la distribución de bienes perecederos (por ejemplo,
alimentos), los almacenes se pueden especializar en la conservación y el transporte adecuado del producto.
Planta A
Tienda 1
Producto 1
Planta B
Tienda 2
Producto 2
No consolidación
Altos inventarios o pequeñas cantidades
Planta A
Tienda 1
Producto 1
Almacén
Planta B
Tienda 2
Producto 2
FIGURA 13.3 Consolidación
de envíos en un almacén
Consolidación
Bajos inventarios y grandes cantidades
341
13.2 Localización de plantas, almacenes y servicios dentro de la planta
Planeación inicial
Exploración geográfica
Análisis de alternativas
Evaluación y selección
FIGURA 13.4 Pasos de un estudio de localización
Como se muestra en la figura 13.4, un estudio de localización debe
empezar por la definición clara de los objetivos, los mercados meta y de la
estrategia de la empresa al abrir una nueva planta o almacén, fase que se
identifica como planeación inicial. De acuerdo con la estrategia de la empresa y los criterios de distribución (cercanía de los proveedores y/o clientes), se puede dar inicio a una fase de exploración geográfica. Estas dos fases permiten tener una primera lista de localidades candidatas, las cuales
deben ser evaluadas de acuerdo con aspectos técnicos y criterios de factibilidad (disponibilidad de fuentes de energía, medios para eliminar los residuos del proceso, disponibilidad de servicios, etc.); dicha evaluación da
lugar a la etapa de evaluación de alternativas. Por último, teniendo la información relevante de los costos se puede llevar a cabo la fase de evaluación
y selección, en la que se pueden utilizar técnicas de optimización para apoyar el proceso de la toma de decisiones.
Factores a considerar en un estudio de localización. En un estudio de
localización los factores a considerar son muy diversos. En la tabla 13.1 se
presenta una lista (no exhaustiva) de los elementos que podrían ser relevantes, agrupados en las categorías: mano de obra, transporte, servicios,
calidad de vida y marco legal. A continuación se comenta la importancia de
algunos de estos factores.
1. Mano de obra: aun para las empresas con un alto grado de automatización, la mano de obra es de importancia fundamental. La localidad elegida para el funcionamiento de la empresa debe ser capaz
TABLA 13.1 Factores importantes para la localización
Mano de obra
Transporte
Calidad de
vida
Servicios
Marco legal
Disponibilidad
Proveedores
Agua
Clima
Impuestos
Relaciones laborales
Mercados
Medios de desecho
Educación
Seguros
Rotación de personal
Medios existentes
Fuentes de energía
Centros de investigación
Incentivos tributarios
Personal calificado
Costo del transporte
Comunicaciones
Costo de la propiedad
Medios de propaganda
342
Capítulo 13
Diseño de planta
de reclutar al personal que necesita, en calidad y en cantidad, para
su buena operación. En el caso en que el personal es altamente
calificado, si bien es cierto que este personal puede ser traído desde
otras áreas, a menudo la carencia de buenos servicios (salud, educación, vivienda) puede ser un inconveniente para la atracción de
personal educado y/o altamente capacitado. Por otro lado, el personal técnico que no requiere de alta especialización puede obtenerse reclutando personal no calificado, el cual recibirá una capacitación adecuada en la empresa. Sin embargo, si existe
competencia de otras empresas para reclutar personal técnico, se
corre el riesgo de tener una alta rotación de personal, que trae consigo mayores gastos de capacitación y entrenamiento. Por lo mismo, algunas empresas tienen la política de localizar sus plantas en
áreas nuevas para la indus-tria (rurales o poco industrializadas),
para lograr que la comunidad se identifique con la empresa y así
evitar el problema de la alta rotación de personal. Algunas otras
consideraciones importantes con respecto a la mano de obra son:
nivel de salarios, fortaleza de los sindicatos, restricciones para variar el tamaño de la fuerza laboral (periodos de contratación, beneficios sociales, jornada laboral, etc.), productividad y educación de
los trabajadores, así como disponibilidad de centros de formación
técnica.
2. Servicios de transporte: la existencia de medios adecuados para el
transporte de insumos hacia la planta y de productos terminados
hacia los centros de distribución es un factor importante a considerar para la elección de la localización apropiada. Indudablemente, el medio de transporte más difundido es la carretera, pero puede ser adecuado considerar otros medios, como el ferrocarril, la vía
marítima y el transporte aéreo. El ferrocarril es un medio más lento que la carretera, pero es barato y apto para grandes volúmenes
de transporte. La vía marítima es apropiada para el transporte de
bienes altamente comerciables y de gran disponibilidad en el mercado internacional, como el petróleo, petroquímicos, minerales,
etc. La vía aérea es un medio más caro, pero puede ser adecuada
para el transporte de bienes perecederos, como flores o alimentos
frescos; cuando el servicio rápido al cliente es muy importante,
también puede ser considerado como un medio alternativo para la
expedición de pedidos.
3. Cercanía a mercados, a plantas y a proveedores: uno de los criterios de localización que puede considerarse a primera vista es el de
la cercanía, ya sea a los mercados, a los proveedores de insumos o
a otras plantas de la empresa. La cercanía a los mercados puede ser
conveniente cuando el costo de transporte del producto terminado es alto en comparación con el costo de transporte de los insu-
13.2 Localización de plantas, almacenes y servicios dentro de la planta
343
mos; tal es el caso, por ejemplo, de la producción de fertilizantes y
de materiales de construcción. La cercanía a los centros de producción de insumos puede ser importante en el caso en que los
insumos son perecederos (industria de alimentos) o cuando el costo de transporte de los insumos es alto, como en el caso de la industria del papel. Algunas empresas pueden considerar importante la cercanía a otras plantas de la empresa cuando la nueva planta
desempeña un papel de apoyo a la producción de las plantas principales. Por ejemplo, la implantación de la filosofía de producción
justo a tiempo (que es la práctica difundida en la industria automotriz) puede forzar a que las plantas proveedoras se sitúen cerca de
las ensambladoras para lograr el abastecimiento oportuno.
4. Fuentes de energía y servicios: el acceso a fuentes de energía barata,
confiable y adecuada para el funcionamiento de la planta es otro
factor importante para su localización. Para algunas industrias,
donde el uso de energía es intensivo, este costo es relevante. Por lo
mismo, existen empresas que prefieren producir su propia energía
a partir del consumo de combustibles (carbón, petróleo, gas, etc.);
otras utilizan algún tipo de combustible como insumo directo
para la producción, tal es el caso de la industria petroquímica, que
utiliza los derivados del petróleo o la tecnología de arco eléctrico
para la producción de acero, que utiliza el gas natural como un gas
reductor de los óxidos de hierro para la producción del hierro esponja, insumo que utiliza esta tecnología para producir el acero.
La existencia de servicios como el agua, las comunicaciones y la
disponibilidad de medios para el desecho de materiales también es
un criterio a considerar para la selección de localidades candidatas, ya que es importante operar la planta sin perjudicar al medio
ambiente.
5. Calidad de vida: la calidad de vida, la apertura del gobierno y la
comunidad local también son factores a considerar en la exploración de las localidades. Como podríamos imaginar, la existencia de
actividades culturales, de servicios religiosos y educativos, de actividades recreativas y el acceso a la vivienda, entre otros, son algunos factores que determinan que la vida de los miembros de la empresa sea más placentera y, a su vez, facilitan la retención del
personal. Por otro lado, algunas consideraciones de la calidad de
vida, como el costo de la propiedad, influyen directamente en la
inversión inicial de la planta.
6. Marco legal: en muchas ocasiones, las consideraciones legales desempeñan un papel fundamental en la localización de las empresas
manufactureras. La implantación de zonas francas para la producción de bienes para exportar, obteniendo la exención del impuesto
de importación de los insumos (por ejemplo, las maquiladoras
344
Capítulo 13
Diseño de planta
mexicanas y los parques industriales ubicados en puertos de Chile y
Perú), ha probado ser un mecanismo eficiente para atraer inversión
productiva. La regulación en materia ecológica tiene importantes
consecuencias y, en algunos casos, se ha prohibido la localización de ciertas industrias por razones ecológicas (por ejemplo, en
México, D.F., se han dictado normas al respecto para evitar altos
niveles de contaminación en la ciudad).
Como ya se mencionó, la lista de factores que aquí presentamos no es
exhaustiva, ya que pueden existir factores particulares del caso, como podría ser la estrategia corporativa de segmentación de mercados. Por lo mismo, se recomienda considerar una lista exhaustiva de factores importantes
sólo para efectos de exploración geográfica, y no necesariamente para tomar la decisión final. Cabe mencionar que algunos de los factores que se
mencionan son de naturaleza cualitativa (clima, calidad de vida, disponibilidad de mano de obra), por lo que pueden servir de criterio para descartar
o para seguir considerando una localidad en particular. Otros factores,
como el costo de la propiedad, los impuestos o el transporte, pueden evaluarse de acuerdo con el costo de instalación y/o de operación que implica
para la empresa, criterio que puede utilizarse para apoyar una toma de decisiones definitiva.
Técnicas para la exploración geográfica. Como expusimos, los factores
que deben tomarse en cuenta para la localización de las plantas y los almacenes pueden ser de diferente naturaleza; algunos tienen un efecto visible
en los costos (cercanía a mercados) y otros no (calidad de vida). En una fase
de exploración geográfica podemos considerar, inicialmente, al transporte
(de insumos y de productos terminados) como el factor económico más
sencillo de cuantificar. En este sentido, la técnica del centro de gravedad
(que será revisada a continuación) es la más utilizada para explorar el área
de la posible localización. Una vez ubicada el área de localización conveniente, podemos iniciar la búsqueda de localidades específicas que reúnan
las condiciones requeridas, para lo cual es necesario recolectar la información cualitativa sobre las características relevantes de los lugares a explorar,
para descartar las localidades que no reúnan las condiciones necesarias. La
técnica más difundida para este propósito es el uso de tablas de calificación, las cuales se describen en esta sección.
Una primera aproximación para determinar el área geográfica en la
que conviene localizar una planta (o almacén) consiste en considerar la localización de los centros desde y hacia los cuales deberán transportarse los
insumos y/o el producto terminado y, en función de estas localidades y de
los volúmenes a transportar, buscar la localización que minimice el costo
total de transporte. En la figura 13.5 presentamos una gráfica típica de la
localización de los centros de oferta/demanda (puntos Pi) respecto a los
cuales debe encontrarse la localización ideal de la planta o del almacén
(punto L).
13.2 Localización de plantas, almacenes y servicios dentro de la planta
345
P2 (x2, y2)
P1 (x1, y1)
w1
FIGURA 13.5 Localización
de los centros de oferta y
demanda
L (x, y)
P3 (x3, y3)
Para poder tener una medida de la distancia entre los centros y la planta o el almacén, deben asignarse coordenadas a los centros (respecto a un
origen arbitrario). Por ejemplo, en la figura 13.5 se asignan las coordenadas
(x1, y1) al centro P1 (las cuales son conocidas, ya que la posición de los centros es conocida), mientras que a la localización de la planta o del almacén
(L) se le asignan, genéricamente, las coordenadas (x, y), las cuales todavía
son desconocidas.
El costo total de transporte que corresponde a una localización es función tanto del volumen a transportar desde los centros de oferta/demanda
como de la distancia de éstos hacia la localización; de manera que si denotamos por wi al volumen a transportar desde/hacia el punto Pi, una medida
del costo total de transporte será:
F(x, y) w1d(P1, L) w2d(P2, L) … wnd(Pn, L)
(13.1)
donde d(Pi, L) es una medida de la distancia desde el punto Pi (xi, yi) hacia
la localidad (por determinar) L (x, y). De esta manera, dados n centros de
oferta/demanda P1, P2, . . ., Pn, con coordenadas (x1, y1), (x2 , y2), ..., (xn, yn) y
volúmenes de transporte w1, w2, ..., wn, respectivamente, el problema de
encontrar las coordenadas de la localización L (x, y) que minimicen los
costos totales de transporte puede plantearse como encontrar las coordenadas (x, y) que minimicen la función de costos definida en (13.1). En la
práctica, la verdadera distancia d(Pi, L) a recorrer desde un centro hacia
la localidad puede ser desconocida (ya que puede depender de la red de
carreteras, por ejemplo), en cuyo caso se tiene que usar alguna aproximación para encontrar una solución al problema de optimización planteado.
Las medidas de distancia más difundidas son la distancia euclidiana y la
distancia rectangular, que definimos a continuación:
•
La distancia euclidiana es la medida de distancia más utilizada para la localización de plantas y/o almacenes, ya que aproxima razonablemente distancias en regiones geográficas amplias o ciudades
con calles no rectangulares. Esta distancia es la línea recta entre los
dos puntos y se define por:
d(Pi, L) x (x xi)2 (y yi)2
346
Capítulo 13
•
Diseño de planta
La distancia rectangular es la medida de distancia más utilizada
para la localización dentro de las plantas, ya que aproxima razonablemente distancias en espacios cerrados, donde los puntos se conectan por pasillos. Esta distancia es la que se obtiene al recorrer
segmentos paralelos a los ejes y se define por:
d(Pi, L) x xi y yi
La solución al problema de minimizar (13.1) cuando se consideran distancias euclidianas es llamada centroide, y la solución cuando se consideran distancias rectangulares se denomina mediana. A continuación indicamos cómo se pueden calcular los centroides y las medianas, a la vez que
ilustramos sus aplicaciones.
Localización de servicios dentro de una planta utilizando la mediana. Como ya mencionamos, la mediana es la solución al problema de encontrar
las coordenadas que minimicen:
F(x, y) w1(x x1 y y1) w2(x x2 y y2) . . . wn(x xn y yn)
Es conveniente observar que la función que acabamos de presentar en la
ecuación anterior no es diferenciable (ya que la función valor absoluto no es
diferenciable), por lo que para hallar la solución del problema de minimización no se pueden utilizar las técnicas clásicas de optimización, las cuales
utilizan métodos del cálculo diferencial. A pesar de esto, se ha encontrado
que el problema tiene una solución que recibe el nombre de mediana y que
puede ser calculada fácilmente. Dadas las coordenadas de n puntos y sus
respectivos pesos, las condiciones necesarias y suficientes para que un punto (x, y) sea una mediana de los puntos dados son las siguientes:
1. La coordenada x es igual a algún xi y, de forma similar, la coordenada y es igual a algún yj, con i, j 1, 2, …, n.
2. La suma de los pesos (wi) es menor o igual que la semisuma de los
pesos, para los cuales sus correspondientes valores xi son estrictamente menores que x; la suma de los pesos es menor o igual que la
semisuma de los pesos, para los cuales sus correspondientes valores xi son estrictamente mayores que x.
3. La suma de los pesos es menor o igual que la semisuma de los pesos, para los cuales sus correspondientes valores yi son estrictamente menores que y, y la suma de los pesos es menor o igual que
la semisuma de los pesos, para los cuales sus correspondientes valores yi son estrictamente mayores que y.
La primera condición muestra que para obtener la mediana se requiere
explorar sólo un número finito de posibilidades, por lo que el cálculo de la
misma tiene poca complejidad computacional. Las últimas dos condiciones pueden interpretarse, intuitivamente, como que las coordenadas de la
347
13.2 Localización de plantas, almacenes y servicios dentro de la planta
mediana parten a los datos correspondientes en el punto medio de los pesos, ya que reparten, más o menos, igual magnitud de pesos hacia atrás
y hacia adelante de la coordenada. Asimismo, debemos indicar que un
conjunto de datos puede tener más de una mediana. De acuerdo con estas condiciones para la mediana, podemos sugerir un algoritmo sencillo de
cálculo, como el siguiente:
1. Ordenar los valores de las abscisas xi de menor a mayor y calcular
la semisuma de los pesos.
2. Construir una tabla con los valores xi ordenados de menor a mayor, indicando para cada xi el correspondiente peso acumulado
(suma de los pesos para los valores menores o iguales).
3. Inspeccionar la tabla anterior para ubicar el primer valor de las
abscisas (buscando a partir del valor más pequeño), para el cual el
peso acumulado es mayor o igual que la semisuma de los pesos
(este valor corresponde a la mediana). Si el peso acumulado del
valor encontrado es exactamente igual a la semisuma de los pesos,
entonces existen dos valores que califican la mediana: el valor encontrado y el siguiente valor.
Para hallar la ordenada y de la mediana, puede seguirse un procedimiento
similar al planteado para la abscisa x (tomando las ordenadas yi en lugar de
las abscisas xi). El siguiente ejemplo sirve para ilustrar la aplicación práctica
del algoritmo presentado para calcular la mediana (este algoritmo puede
implantarse fácilmente en una hoja de cálculo).
Ejemplo 13.1. Posición de la estación de un operador
En la figura 13.6 se presenta la disposición de un taller que fabrica casimir
de lana, el cual consta de ocho telares con lanzadera, y se indican las posiciones de las estaciones de control (Oi) para cada telar. Las máquinas operan automáticamente, pero requieren de la atención de un operador cada
O6
O5
O4
O2
O3
O7
O8
O1
FIGURA 13.6 Disposición de un taller de telares
348
Capítulo 13
Diseño de planta
TABLA 13.2 Coordenadas de estaciones de control de máquinas
Máquina
(i )
Estación de
control (oi )
Frecuencia
diaria de fallas (wi )
1
(0, 0)
2
2
(4, 0)
1.25
3
(8, 0)
2
4
(8, 7)
1.5
5
(4, 7)
1.75
6
(0, 7)
2
7
(0, 5)
1.75
8
(0, 2)
2
vez que se detecta una falla en el proceso, y cada vez que esto ocurre se
desperdician tiempo y materiales, por lo que el costo que genera cada falla
es proporcional a la distancia recorrida por el operador para atender la
máquina. Por otro lado, el operador viaja a través de los pasillos (las siete
líneas de la gráfica) cada vez que necesita atender la falla de un telar. Se
desea determinar la posición óptima del operador que minimice los costos
en que se incurre a causa de las fallas, teniendo en cuenta que cada máquina posee una determinada frecuencia de ocurrencia de fallas y que, una vez
atendida la falla de una máquina, el operador regresa a su posición inicial
(estación del operador) para esperar el siguiente pedido de atención.
En la tabla 13.2 se presentan las coordenadas (en metros) de las estaciones de control de las máquinas (tomando como origen la posición O1) y
las correspondientes frecuencias diarias de ocurrencia de las fallas para cada máquina. Estas frecuencias pueden ser tomadas como los pesos wi y las
posiciones de las estaciones de control como las coordenadas de los puntos
Pi, de manera que el problema de encontrar la posición del operador que
minimice los costos por fallas se reduce al problema de encontrar la mediana de los puntos y los pesos dados. Esta formulación del problema supone
que el costo de la falla por unidad de tiempo sin atención es el mismo para
cada máquina; asimismo, la utilización de distancias rectangulares se justifica con el hecho que el operador debe utilizar los pasillos para viajar.
En la tabla 13.3 se muestran los resultados obtenidos al ordenar los
valores de las coordenadas y calcular los correspondientes pesos acumulados. La semisuma de los pesos para estos datos es de 14.25/2 7.125.
Los resultados de la tabla se obtuvieron utilizando una hoja de cálculo
(véase archivo Telares.xls en la página web de este libro), donde los datos
de las abscisas, las ordenadas y de los pesos se copiaron de la primera hoja
349
13.2 Localización de plantas, almacenes y servicios dentro de la planta
TABLA 13.3 Ordenamiento de coordenadas de estaciones de control de máquinas
Abscisas
de menor a
mayor
Peso
Peso
acumulado
¿Mediana?
Ordenadas de
menor a mayor
Peso
Peso
acumulado
¿Mediana?
0
2
2
NO
0
2
2
NO
0
2
4
NO
0
1.25
3.25
NO
0
1.75
5.75
NO
0
2
5.25
NO
0
2
7.75
SÍ
2
2
7.25
SÍ
4
1.25
9
NO
5
1.75
9
NO
4
1.75
10.75
NO
7
1.5
10.5
NO
8
2
12.75
NO
7
1.75
12.25
NO
8
1.5
14.25
NO
7
2
14.25
NO
(de datos) y se ordenaron utilizando la opción Ordenar del menú Datos de
Excel.
Como se observa en la tabla, el valor de la mediana es (0, 2) (que coincide con la posición de la estación 8), por lo que conviene localizar al operador en esta posición. Asimismo, en la hoja de datos del archivo Telares.
xls se proporciona información adicional, como la distancia (rectangular)
de cada punto a la mediana y el valor de la función (13.1) minimizada (suma de las distancias por los pesos). En caso de ser necesario, este último
valor puede ser usado para evaluar los costos. Así, por ejemplo, dado que la
suma de las distancias por los pesos es de 82 (luego de calcular la mediana),
si se estima que el costo (por desperdicio) en el que se incurre cuando falla
un telar es de $4 por metro recorrido (en cada falla), entonces, si ubicamos
al operador en la posición (0, 2), el costo promedio diario ocasionado por
las fallas será de 4(82) $328 (cabe mencionar que éste es el menor costo
posible con un operador).
Exploración geográfica utilizando el centroide. Como ya se mencionó, el
centroide es la solución al problema de encontrar las coordenadas que minimicen:
F ( x , y ) = w1 ( x − x1 )2 + ( y − y1 )2 + w2 ( x − x2 )2 + ( y − y2 )2 + + wn ( x − xn )2 + ( y − yn )2
Cabe destacar que la función que acabamos de presentar en la ecuación anterior sí es diferenciable, por lo que para hallar el centroide se pueden utilizar las técnicas clásicas de optimización. Sin embargo, la solución
de este problema no tiene una forma explícita, ya que las condiciones (de
350
Capítulo 13
Diseño de planta
optimización de primer orden (véase, por ejemplo, Winston, 2005) conducen al sistema de ecuaciones no lineales:
wi ( xi − x)
n
∑
i= 1
wi ( yi − y)
n
∑
i= 1
= 0,
( xi − x )2 + ( yi − y )2
( xi − x )2 + ( yi − y )2
= 0.
Si bien es cierto que este sistema puede resolverse haciendo uso de
software para optimización no lineal (de propósito general), el algoritmo
de Weiszfeld es muy eficiente para encontrar el centroide. Este algoritmo
va aproximando la solución por medio de iteraciones (como lo hacen la
mayoría de los algoritmos para programación no lineal) y se detiene cuando el error de aproximación es lo suficientemente pequeño. Específicamente, este algoritmo se puede describir de la siguiente manera:
1. Aproximar la solución por el centro de gravedad:
n
x0 =
∑w x
i =1
n
i
∑w
i =1
i
n
i
, y0 =
∑w y
i =1
n
i
∑w
i
.
i
i =1
2. Hacer iteraciones sobre la solución obtenida hasta el momento, de
acuerdo con:
n
xn+1
n
w i xi
wi yi
∑
i =1 d
i =1 d
= n i , yn+1 = n i ,
wi
w
∑d
∑ di
i =1
i =1
i
i
∑
donde:
( xn − xi )2 + ( yn − yi )2.
Se destaca que a mayor número de iteraciones se obtiene una mejor aproximación, por lo que se puede implementar un algoritmo con un número
dado de iteraciones; o, simplemente, se pueden hacer iteraciones hasta
obtener una precisión deseada, por ejemplo, max{xn+1 – x, yn+1 – y}e,
donde e es un valor dado (pequeño). Una versión de este algoritmo se encuentra implantada en el archivo Sabores.xls, cuyo uso ilustramos en el siguiente ejemplo.
Ejemplo 13.2. Exploración de la localización de una
planta utilizando el centroide
Sabores del Mundo es una empresa dedicada a la producción de insumos
para la industria de alimentos y está emprendiendo el proyecto de fabricar
13.2 Localización de plantas, almacenes y servicios dentro de la planta
Coordenadas
1. Tampico (D)
2. Monterrey (D)
3. D.F. (D)
4. Manzanillo (D)
5. Oaxaca (O)
6. Salina Cruz (O)
7. Veracruz (O)
(1700, 1317)
(1484, 1450)
(1533, 855)
(1034, 817)
(1784, 634)
(1833, 467)
(1732, 817)
351
Monterrey
Tampico
D.F.
Veracruz
Manzanillo
Oaxaca
Salina Cruz
FIGURA 13.7 Centros de oferta y de demanda de Sabores del Mundo
un colorante derivado de un insecto llamado en México grana o cochinilla
(Coccus cacti). El proyecto se basa en un programa que impulsa la siembra
del nopal en el estado de Oaxaca (la cochinilla habita fundamentalmente en
el nopal). La empresa ha decidido que su producción en México también
podría abastecer sus mercados en Europa, Asia y Estados Unidos, para lo
cual utilizaría los puertos de Tampico y Manzanillo como centros de embarque; estos centros de demanda se sumarían a los mercados nacionales
localizados en Monterrey y en México, D.F. Los centros de oferta del insumo de cochinilla serían, fundamentalmente, Oaxaca, capital del estado del
mismo nombre, y los puertos de Salina Cruz y Veracruz, donde se recibirán
los insumos provenientes de Sudamérica y Europa. La ubicación de estos
centros de distribución se presenta en la figura 13.7, donde se le han asignado coordenadas (en kilómetros) a estas localidades.
Las cantidades a transportar anualmente (en toneladas) desde los centros de oferta o hacia los centros de demanda se resumen en la tabla 13.4.
La oferta total prevista de insumos es de 3000 ton, mientras que la demanda de colorante es de 2700 ton, lo que indica que cada unidad de insumo
rinde para 0.9 unidades de colorante.
En la primera hoja (de nombre Datos) del archivo Sabores.xls (véase la
página web de este libro) se utilizó el programa del botón Calcular Centroide (con 100 iteraciones) para encontrar el centroide de estos puntos, utilizando las coordenadas de los centros de distribución (véase figura 13.7) y
los volúmenes de transporte de la tabla como pesos (wi), en donde se obtuvieron los valores de: x 1717.58 y y 809.18. Estas coordenadas corresponden a una localización ubicada ligeramente al sudeste de México, D.F.
(punto L de la figura 13.7, que sugiere la ciudad de Puebla).
352
Capítulo 13
Diseño de planta
TABLA 13.4 Volúmenes de transporte de Sabores del Mundo
Localidad
Volumen de transporte (ton)
Tampico
900
Monterrey
400
México, D.F.
500
Manzanillo
900
Oaxaca
1000
Salina Cruz
1000
Veracruz
1000
Debemos mencionar que la zona sugerida por el centroide depende, en
gran medida, de la política de distribución planteada. Por ejemplo, el resultado que hemos obtenido supone implícitamente que en esta localidad se
recibirán los insumos de todos los centros de oferta y se distribuirán hacia
todos los centros de demanda. Si nuestra política consistiera en construir
más de una planta, el resultado debería ser diferente. Por ejemplo, supongamos que quisiéramos explorar la opción de construir dos plantas. La primera de ellas abastecería a México, D.F. (500 ton) y a Manzanillo (900 ton), y
obtendría sus insumos de Salina Cruz (1000 ton) y de Oaxaca (556 ton). La
segunda planta abastecería a Tampico (900 ton) y a Monterrey (400 ton), y
demandaría insumos de Veracruz (1000 ton) y de Oaxaca (444 ton). Utilizando la segunda y la tercera hojas del archivo Sabores.xls (con 100 iteraciones cada una), para la primera planta se obtienen las coordenadas x 1713.04 y y 617.15, que corresponden al punto L1 en la figura 13.7 (al suroeste de Oaxaca); mientras que para la segunda planta se obtienen las
coordenadas x 1732 y y 817, que corresponden al punto L2 en la figura
13.7 (Veracruz). De esta manera, utilizando la técnica del centroide, observamos que la ciudad de Puebla puede ser una localidad apropiada si se desea
ubicar una sola planta; mientras que las localidades de Oaxaca y Veracruz
son apropiadas para ubicar dos plantas (una en cada localidad, bajo la política de distribución correspondiente).
Con este ejemplo se pretende ilustrar cómo la técnica del centroide es
útil para generar posiciones alrededor de las cuales pueden ubicarse localidades candidatas para situar plantas y/o almacenes. El siguiente paso en la
exploración de localidades debe considerar otros factores importantes,
además del costo por transporte.
Tablas de calificación para la localización. Como hemos podido apreciar
hasta aquí, la técnica del centro de gravedad puede ayudarnos a ubicar la
zona alrededor de la cual es conveniente localizar una planta o un almacén,
de manera que los costos de transporte no sean elevados. Sin embargo, la
13.2 Localización de plantas, almacenes y servicios dentro de la planta
353
ubicación precisa obtenida no necesariamente reúne todas las características que requiere el proyecto (condiciones laborales, disponibilidad de servicios, fuentes de energía, etc.). En consecuencia, el siguiente paso en la
fase de exploración geográfica consiste en identificar las localidades candidatas y explorar si éstas reúnen las características cualitativas que se consideran importantes para que la planta o el almacén pueda operar satisfactoriamente; después se puede utilizar un criterio más preciso de costos para
seleccionar la ubicación definitiva. La técnica más difundida para analizar
las cualidades de las localidades candidatas es el uso de una tabla de calificación, la cual consiste en una lista de las características que se consideran
importantes para la operación de la planta o del almacén, a la cual se le
asignan calificaciones de acuerdo con las categorías propuestas. De esta
manera, se pueden obtener calificaciones para cada posible localización, de
acuerdo con las cualidades de la misma. Estas calificaciones sirven como
punto de referencia para descartar una localidad o para considerarla apta
para llevar a cabo un estudio de localización basado en información más
precisa de los costos. En el siguiente ejemplo ilustramos la aplicación de
esta técnica.
Ejemplo 13.3. Tabla de calificación para una empresa de alimentos
Sabores del Mundo (véase ejemplo 13.2) considera que existen cuatro factores cualitativos importantes para su proyecto: clima, disponibilidad de
agua, educación y condiciones laborales. Se ha decidido que cada uno
de éstos puede ser calificado con una puntuación de 0 a 50, y con la finalidad de lograr calificaciones objetivas (lo cual, en general, es recomendable)
se establecen seis categorías para cada uno de estos factores, asignándoles
las calificaciones 0, 10, 20, 30, 40 y 50, respectivamente. La tabla 13.5 contiene las calificaciones obtenidas.
De una lista de seis posibles localidades exploradas, se obtuvieron los
resultados que se muestran en la tabla 13.6.
Un primer criterio para eliminar localidades puede ser la puntuación
total; por ejemplo, estableciendo una puntuación mínima total de 120, quedarían excluidas las localidades 3 y 6. Sin embargo, se debe tener en cuenta
que la obtención de una puntuación muy baja en un factor puede, simplemente, imposibilitar la ubicación en una localidad determinada; por ejemplo, la localidad 1 tiene una calificación muy baja en educación, lo que obligaría a su descalificación. De esta forma, las localidades 2, 4 y 5 serían
seleccionadas como candidatas para pasar a una siguiente fase de análisis
cuantitativo y, posteriormente, a la fase de evaluación y selección.
Fuentes de costo en la localización de plantas y almacenes. Hasta el momento hemos visto que el centroide y las tablas de calificación pueden servir de apoyo para seleccionar las localidades candidatas para ubicar las
plantas y los almacenes. La última fase, de evaluación y selección definitiva
354
Capítulo 13
Diseño de planta
TABLA 13.5 Tabla de calificaciones para Sabores del Mundo
1.
Clima
Categoría
2.
Puntaje
A
Insano, no se puede instalar el proyecto.
0
B
Muy variable, catástrofes frecuentes (inundaciones, ciclones o terremotos).
10
C
Temperatura variable, catástrofes poco frecuentes.
20
D
Temperatura variable, no hay catástrofes.
30
E
Temperatura constante, pero el clima es poco húmedo o muy lluvioso.
40
F
Ideal para el proyecto, clima agradable todo el año.
50
Disponibilidad de agua
Categoría
3.
Puntaje
A
No disponible.
0
B
Disponible, pero se debe invertir en perforación de pozos.
10
C
Disponible, pero se debe invertir en purificación y tanques.
20
D
Disponible, pero requiere purificación.
30
E
Disponible y de buena calidad, pero es cara.
40
F
Disponible, de buena calidad y precio razonable.
50
Educación
Categoría
4.
Puntaje
A
No hay escuelas.
0
B
Sólo educación primaria pública.
10
C
Sólo educación secundaria pública.
20
D
Educación secundaria privada y pública de buena calidad.
30
E
Educación secundaria y técnica de buena calidad.
40
F
Existen universidades y centros de preparación técnica.
50
Condiciones laborales
Categoría
Puntaje
A
Leyes estrictas y hay escasez de personal.
0
B
Leyes estrictas, existe personal no calificado.
10
C
Leyes estrictas, existe personal calificado.
20
D
Leyes estrictas pero no aplicadas, personal calificado.
30
E
Personal calificado, fácil contratación y despidos, pero alta rotación.
40
F
Existe personal calificado, fácil contratación y despidos, poca competencia.
50
355
13.2 Localización de plantas, almacenes y servicios dentro de la planta
TABLA 13.6 Calificaciones para varias localidades
Calificación del lugar
Factor
L1
L2
L3
L4
L5
L6
Clima
30
40
10
40
50
20
Agua
40
30
50
50
20
20
Educación
10
30
20
50
40
40
Condiciones laborales
50
40
30
40
30
30
Total
130
140
110
180
140
110
de la(s) localidad(es), debe tener en cuenta los costos relevantes de la ubicación del proyecto, mismos que, a menudo, se pueden agrupar en dos
fuentes. La primera está relacionada con las características del lugar, que
determinan los costos particulares de la instalación y de la operación; entre
sus componentes podemos mencionar: costos de la propiedad, nivel de salarios, costo de la energía, impuestos, seguros, entre otros. La segunda
fuente de costo está en función de la localización geográfica y de la política
de distribución de la empresa; éste es básicamente el costo de transporte
(de materiales, insumos y de productos terminados), el cual depende de la
posición geográfica de la localización y de la política de distribución de
la empresa. Estamos distinguiendo entre estas dos fuentes de costo debido
a que el costo de la primera puede evaluarse únicamente de acuerdo con la
información que se puede obtener de las localidades particulares; en cambio, el costo de la segunda fuente depende, además, de la estrategia de distribución de la empresa, por lo que debemos determinar la mejor política
de distribución que, a primera vista, puede no ser obvia y, en algunos casos,
se obtiene haciendo uso del modelo conocido como modelo de transporte
(véase Winston et al., 2004).
Para comparar los costos totales de dos localidades es conveniente,
primero, uniformar los costos de ambas fuentes y, después, expresar los
costos de instalación y de operación en las mismas unidades, dado que
los costos de transporte a menudo se expresan por unidad de tiempo (por
ejemplo, anual). En el siguiente ejemplo se ilustra cómo se pueden uniformar los costos de instalación (a menudo expresados como un desembolso
único) con los costos de operación y de transporte (a menudo expresados
por unidad de tiempo).
Ejemplo 13.4. Comparación de costos de instalación
y de operación
Sabores del Mundo (la empresa del ejemplo anterior) está explorando la
posibilidad de instalar una planta con capacidad de producción de 3000
toneladas anuales de colorante de cochinilla, ya sea en Oaxaca o en Puebla.
356
Capítulo 13
Diseño de planta
Tabla 13.7 Costos de instalación y de operación de Sabores del Mundo
Puebla
Oaxaca
($)
($)
Terreno
400 000
300 000
Construcción
600 000
400 000
Equipo e instalación
600 000
700 000
1 600 000
1 400 000
($ al año)
($ al año)
100 000
95 000
Impuestos y seguros
90 000
92 000
Energía y servicios
50 000
70 000
Mantenimiento
10 000
15 000
250 000
272 000
Costos de instalación
Total
Costos de operación
Salarios
Total
Con esta finalidad, se ha recopilado información detallada sobre los gastos
de instalación y de operación en ambas localidades, la cual se resume en la
tabla 13.7.
Como se puede observar en la tabla 13.7, los costos de instalación son
menores en Oaxaca que en Puebla, mientras que con los costos de operación pasa lo contrario. Por otro lado, mientras que los costos de instalación
implican un desembolso único, los costos de operación son desembolsos
periódicos. En consecuencia, para comparar los costos totales de instalación y de operación de las dos localidades, se debe, en primer lugar, uniformar los periodos de pagos. Una manera de lograr este objetivo es expresando el desembolso único que implica el costo de instalación como
amortizaciones periódicas, las cuales deben incluir el costo del capital (a
partir de la tasa de interés), considerando que esta inversión tiene un determinado tiempo de vida útil. Para este fin, se puede utilizar la siguiente
ecuación (véase Ross et al., 2001):
1
⎡1
⎤
I = A⎢ −
⎥
N
⎣ i i(1 + i ) ⎦
(13.2)
La ecuación (13.2) establece una relación entre la inversión inicial I,
que tiene una vida útil de N periodos, y la cantidad A, pagada cada N periodos iguales, que amortizará la inversión inicial I, incluyendo el interés que
ésta genera (la tasa de interés es de i por cada periodo). Por ejemplo, la inversión inicial requerida en Puebla es I 1 600 000. Supongamos que ésta
tiene una vida útil de 10 años y que la tasa de interés mensual es de 1% (i 13.3 Disposición de planta
357
0.01). Si queremos calcular el pago mensual A, que amortizará la inversión
inicial y sus intereses, de acuerdo con (13.2) tenemos:
⎡ 1
⎤
1
1 600 000 = A ⎢
−
120 ⎥
0
.
01
0.01(1 + 0.01) ⎦
⎣
de donde resulta A $22 955. Teniendo en cuenta que el costo mensual de
operación es de $20 833, se obtiene un costo mensual de operación e instalación para Puebla de $43 788. Mediante un procedimiento similar, se obtiene un costo mensual de operación e instalación para Oaxaca de $42 753.
Es conveniente mencionar que, si bien en este ejemplo hemos calculado la
amortización mensual, a menudo en los problemas de localización es conveniente calcular las amortizaciones anuales, que también se obtienen
usando la ecuación (13.2).
Por último, cabe mencionar que en algunas situaciones se puede requerir el uso de modelos de optimización para hacer una adecuada evaluación y selección de la(s) localización(es), debido fundamentalmente a que el
costo de transporte bajo cada alternativa puede no ser evidente, ya que
debe investigarse en qué cambia el sistema de distribución con las nuevas
plantas y/o almacenes. Como en este capítulo no es posible profundizar en
los modelos de optimización que sirven para resolver problemas más complejos de localización, se pueden consultar los textos de Tompkins et al.
(2011) y de Bramel y Simchi-Levi (1997), en los que puede encontrarse una
referencia más amplia al respecto; para un mejor entendimiento de los modelos que apoyan la toma de decisiones se sugiere empezar por un libro de
investigación de operaciones como el de Winston (2005).
13.3 Disposición de planta
La disposición de una planta (layout en inglés) está relacionada con la disposición f ísica de las unidades dentro de una planta para lograr los objetivos de producción, mediante los niveles adecuados de calidad, productividad y de utilización de recursos. En esta sección se explican los principales
conceptos y las técnicas de utilidad para el diseño de la disposición de una
planta. El capítulo empieza con la introducción de los principales esquemas de disposición de una planta; posteriormente, se comentan las principales medidas de desempeño que se ven afectadas por la disposición de una
planta y, finalmente, se presentan algunas técnicas que pueden utilizarse
para apoyar el proceso de la toma de decisiones.
Esquemas para la disposición de una planta. La disposición de una planta debe responder al sistema de producción que, estratégicamente, ha
adoptado la empresa. Así como pueden identificarse diferentes tipos de sistemas de producción: tipo proyecto, tipo taller, por lotes, en masa y
de flujo continuo, es razonable imaginar que para cada tipo de sistema
358
Capítulo 13
Diseño de planta
existe un esquema adecuado de disposición de la planta. Sin embargo, como ocurre con los sistemas de producción, en la práctica las empresas pueden adoptar esquemas híbridos de la disposición de una planta; esto es,
pueden combinar diferentes esquemas en la misma planta para lograr la
disposición que permita implantar exitosamente la estrategia de operaciones de la empresa. Los esquemas más difundidos para la disposición de una
planta son los siguientes:
•
•
•
•
Disposición de acuerdo con el producto.
Disposición de acuerdo con el proceso.
Disposición en grupos.
Disposición de posición fija.
A continuación se detallan las características de cada uno de estos esquemas de disposición de planta.
Disposición de acuerdo con el producto: bajo este esquema, la manufactura de cada unidad del producto que se va a fabricar sigue la misma secuencia de operaciones y cada departamento de planeación se identifica
con un paso específico del proceso de fabricación del producto. A menudo
esta disposición se identifica con el nombre de línea de producción, para
indicar justamente que los pasos para la manufactura del producto se aplican siempre en la misma secuencia, y que el departamento de planeación
donde se realiza un proceso está ubicado cerca de los departamentos donde se realizan los procesos anterior y posterior de la secuencia. Se debe
mencionar que en una disposición de acuerdo con el producto no necesariamente se fabrica un único modelo de un producto; por ejemplo, en una
línea de ensamble de automóviles, la secuencia de operaciones es la misma
para cada modelo de auto que se fabrique en la línea, pero se pueden fabricar diferentes modelos en la misma línea de ensamble. En la figura 13.8 se
muestra un esquema de disposición de la planta de acuerdo con el producto para la fabricación de vino. Al conocer la secuencia de los procesos, los
departamentos inmediatos en la secuencia se pueden ubicar unos cerca de
otros, de manera que se obtienen costos bajos por transporte y por manejo
de materiales. La disposición de acuerdo con el producto es la más adecuada para los sistemas de producción en masa y de flujo continuo, pudiéndose también aplicar para la producción por lotes (por ejemplo, diferentes
Variedad 1
Variedad 2
FIGURA 13.8 Línea de producción de vinos
•
Mezcla
•
•
Distribución
•
•
Añejado
•
•
Empaque
•
•
Sellado
•
•
Embotellado
•
359
13.3 Disposición de planta
modelos de automóviles, diferentes variedades de vino o diferentes modelos de pantalones de mezclilla).
Disposición de acuerdo con el proceso: bajo el esquema de disposición
de planta de acuerdo con el proceso, los departamentos de planeación son
grupos de máquinas o actividades que realizan un trabajo similar; esto es,
se definen de acuerdo con el proceso que realizan. A diferencia de la disposición de acuerdo con el producto, los artículos que se producen en la planta pueden pasar por diferentes departamentos de planeación (o estaciones
de trabajo) en diferente secuencia, con lo que se obtiene una mayor flexibilidad para producir diferentes artículos. En la figura 13.9 se muestra un
esquema de disposición de la planta de acuerdo con el proceso para la fabricación de piezas de acero. Se fabrican piezas cuya manufactura requiere
de diferentes secuencias de procesos, lo que permite el uso del mismo equipo para manufacturar productos diferentes. Este esquema de disposición
de planta es el adecuado para el sistema de producción tipo taller y también
se puede utilizar para sistemas de producción por lotes, cuando se requiere
de flexibilidad para producir artículos heterogéneos con el mismo equipo.
Debido a que la secuencia de operaciones no es la misma para cada lote
que se va a producir, debe tenerse especial cuidado en determinar una disposición f ísica de las estaciones de trabajo y de los departamentos de planeación que no proporcione altos costos por transporte de materiales.
Disposición en grupos: el esquema de disposición en grupos (también
llamado manufactura celular o tecnología de grupos) utiliza el principio
que, agrupando la demanda de varios productos (con tecnología de proceso similar) se puede obtener un alto nivel de demanda agregada que justifique la inversión en equipo especializado y que permita obtener bajos costos de manufactura. En consecuencia, bajo este esquema de disposición de
la planta, las piezas y los componentes se agrupan en familias, dentro de las
cuales los requerimientos del proceso son similares; además, para cada familia se diseña un departamento de planeación (llamado célula de manufactura), lo que permite la producción en masa de estos productos. Con
este esquema de disposición de la planta es posible combinar las ventajas
del esquema de acuerdo con el producto y las del esquema de acuerdo con
el proceso, ya que esta combinación permite especializar la producción y, a
la vez, compartir el equipo para la manufactura de componentes distintos.
Bajo esta disposición de la planta, los departamentos de planeación no se
definen de acuerdo con el proceso que se implanta en el departamento, si-
Pieza 1
Pieza 2
FIGURA 13.9 Disposición de
acuerdo con el proceso para
fabricar piezas de acero
•
Perforación
•
Tratamiento
superficial
•
•
•
Esmerilado
•
Pintura
•
Fresado
Ensamble
•
•
360
Capítulo 13
Diseño de planta
T
C
T
EV = Esmeril vertical
EH = Esmeril horizontal
P = Pulidora
EH
• •
•
•
•
C = Cortadora
T = Torno
• •
Pieza
final
•
•
•
EV
EV
Inspección
P
FIGURA 13.10 Diagrama de una célula de manufactura
no que se componen de la célula, el equipo heterogéneo necesario para la
manufactura de los componentes que forman parte de la familia de productos.
En la figura 13.10 presentamos el esquema de una célula de manufactura donde se realizan operaciones de maquinado, acabado e inspección
para producir piezas de metal. Nótese que la disposición del equipo está en
forma de U, ya que permite que los operarios sean asignados a varias operaciones. En la gráfica se indica el movimiento (los circuitos que unen los
puntos en el centro de la gráfica) de los tres operarios de la célula; por ejemplo, el primer operario utiliza la máquina de corte, y el primer torno realiza
la inspección y retira el producto final.
La implantación de células de manufactura permite el logro de beneficios importantes, sobre todo en plantas donde se fabrica una gran variedad
de componentes. Al especializar la producción, la manufactura celular permite reducir los tiempos por apertura de procesos, el espacio y los costos
por transporte de materiales. Los operarios pueden enfocar su atención en
las operaciones de manufactura, sin perder tiempo en el movimiento de los
materiales, lo que les permite responder rápidamente a los problemas de
producción que puedan presentarse, obteniendo productos terminados
de alta calidad.
Disposición de posición fija: para la producción unitaria y por pedido
del cliente de bienes de gran envergadura (locomotoras, aviones, barcos,
maquinaria pesada, etc.), es necesario adoptar un sistema de producción
tipo proyecto. De la misma manera, durante el proceso de manufactura de
estos bienes el tamaño de los mismos no permite trasladarlos de una estación de trabajo a otra para llevar a cabo las operaciones de manufactura. En
estos casos, debe utilizarse un esquema de disposición de posición fija; es
13.3 Disposición de planta
361
decir, la manufactura del bien se realiza en un lugar determinado y los operarios, las herramientas y la materia prima deben trasladarse a dicho lugar
para llevar a cabo los procesos necesarios de manufactura y de ensamble en
una posición fija. Este esquema es apropiado para la manufactura de aviones, barcos y de maquinaria pesada o para proyectos de construcción.
Metas de la disposición de la planta. Existen muchas ventajas competitivas que pueden obtenerse a partir de la disposición adecuada de una planta. Para describir mejor las metas que pueden plantearse, empezamos por
definir con precisión el significado de algunas medidas de desempeño que,
típicamente, se ven afectadas por la disposición de la planta. A continuación presentamos las medidas de desempeño más difundidas, indicando
entre paréntesis el término correspondiente en inglés, que a menudo se
utiliza en el ambiente de producción.
Tasa de salida (throughput): es el número de unidades que se producen en el sistema de producción por unidad de tiempo. La tasa de salida de
un producto puede variar en el tiempo, dependiendo de diversos factores,
en particular de la composición de la producción (mezcla de productos).
Por lo general, la tasa de salida se expresa como el promedio de unidades
producidas por unidad de tiempo, durante un periodo determinado. Por
ejemplo, en una planta automotriz podría observarse que la tasa de salida
durante el primer año de operación fue de 500 autos diarios. La tasa de
salida que se experimenta en un sistema de producción no puede exceder
la capacidad de producción.
Inventario del material en espera (waiting inventory): está integrado
por los productos, las partes o los componentes que están esperando para
incorporarse a un proceso, debido a que no se ha recibido la señal (u orden)
correspondiente. Dos casos especiales del inventario del material en espera
son los inventarios de insumos (que están esperando por la orden de producción) y los inventarios de productos terminados (que están esperando
por la orden de compra y/o distribución).
Inventario del material en proceso (work in process): es el inventario de
las partes y de los componentes que se están procesando entre el inicio y el
final de un proceso productivo (o línea de producción). La diferencia con
el inventario del material en espera es que el material en proceso generalmente se acumula debido a la congestión del equipo dentro del proceso; en
cambio, el material en espera ha terminado las actividades de un proceso y
no ha ingresado al proceso siguiente. A menudo el inventario del material
en proceso consiste de todos los materiales que se están procesando entre
dos estaciones de almacenamiento del inventario del material en espera
(véase figura 13.11). De acuerdo con esta definición, el material que está
esperando por un proceso al pie de una máquina es material en proceso y
no en espera.
362
Capítulo 13
Diseño de planta
Estación de
estampado
Inventario
de lámina
Inventario de
material en proceso
Inventario de
material en espera
Estación de corte
Estación de
acabado
Inventario de tapas
FIGURA 13.11 Inventarios en la manufactura de una tapa de acero
Ciclo de manufactura (cycle time): es el tiempo desde que inicia el proceso de manufactura de una unidad del producto (parte o componente)
hasta que termina el proceso de esta unidad; es decir, coincide con el tiempo que los componentes del producto fueron material en proceso.
Se debe mencionar que en muchas situaciones las ventajas en relación
con cierta medida de desempeño del sistema pudieran haberse obtenido
sacrificando alguna otra. Así, por ejemplo, se podrían obtener ciclos de
manufactura menores aumentando algunos costos por inventario o la flexibilidad de un sistema de producción se podría obtener sacrificando la rapidez (tasa de producción) del sistema. Debido a que no es posible lograr la
excelencia de un sistema desde todos los puntos de vista, las consideraciones estratégicas desempeñan una función importante para decidir cuáles
son las características del sistema cuyo mejor desempeño debe tener prioridad. Por lo mismo, en general, la planeación del diseño de una planta
empieza por establecer metas (más que objetivos a maximizar o a minimizar). Algunas de las metas que pueden trazarse en un estudio de diseño de
planta pueden estar relacionadas con las siguientes características:
•
•
•
•
•
•
Niveles de productividad (tasas de salida).
Niveles de congestión dentro del proceso (inventario del material
en proceso).
Flexibilidad para permitir la introducción de nuevos diseños rápidamente y/o para responder eficientemente a los posibles cambios
en los patrones de demanda.
Costo por manejo de materiales.
Longitud de los ciclos de manufactura.
Capacidad para implantar reglas sencillas y eficientes para la programación y el control de las operaciones productivas.
13.3 Disposición de planta
•
•
363
Área utilizada (espacio).
Capacidad para lograr un ambiente placentero de trabajo.
Técnicas para el diseño de la disposición de una planta. Como hemos
visto, para la mayoría de los caso se debe escoger, fundamentalmente, entre
tres esquemas para la disposición de los departamentos de planeación de
una planta: de acuerdo con el producto, el proceso y en grupos, ya que el
esquema de posición fija está limitado a la producción específica de bienes
de gran tamaño. Una vez seleccionado el esquema de disposición (o los
esquemas, en caso de que se desee utilizar esquemas híbridos), se deben
identificar, de manera más precisa, una buena disposición de las instalaciones y una organización adecuada de las estaciones de trabajo que permitan
lograr los objetivos estratégicos de la empresa.
A continuación se exponen las técnicas más difundidas para resolver
tres problemas fundamentales del diseño de la disposición de la planta: el
balanceo de las líneas de producción, la disposición f ísica de los departamentos de planeación y la formación de familias de productos para la
creación de células de manufactura. El problema de balanceo de líneas de
producción (que se describe con detalle a continuación) tiene particular
importancia cuando adoptamos un esquema de disposición de acuerdo
con el producto, ya que un balanceo adecuado permite una mejor utilización de los recursos de mano de obra y de equipo disponibles. La disposición f ísica de los departamentos de planeación tiene particular importancia cuando se está utilizando un esquema de disposición de acuerdo con el
proceso, ya que la disposición de los departamentos influye directamente
en los costos por transporte y por manejo de materiales. Por último, como
es de esperarse, la formación de familias de productos tiene relevancia
cuando adoptamos un esquema de disposición por grupos.
Por otro lado, debido a que existen diferentes medidas de desempeño
en la disposición de una planta que, a menudo, pudieran estar en conflicto,
otra de las herramientas más útiles para evaluar la disposición de una planta es la simulación de sistemas (véase capítulo 12).
Balanceo de líneas: el esquema de disposición de una planta de acuerdo con el producto (llamado línea de producción) se diseña en función de
la secuencia de operaciones necesarias para producir un producto específico. Una de las razones por las que una línea de producción es eficiente es
porque hace uso del principio de la división del trabajo. Es decir, la manufactura de un artículo en particular no se realiza en forma de proyecto,
manufacturando en secuencia uno por uno todos los componentes del artículo y ensamblando luego las piezas para obtener el producto final; si se
trabajara de esta manera, la tasa de producción sería muy baja y estaría
determinada por el ciclo de manufactura del producto. En cambio, en una
línea de producción el trabajo se distribuye entre estaciones de trabajo
(véase figura 13.12) que trabajan simultáneamente, en cada una de las cua-
364
FIGURA 13.12 Línea de
producción con estaciones
en serie
Capítulo 13
Diseño de planta
Estación A
Estación B
Estación C
les se realiza parte del trabajo total. De esta manera, la tasa de producción
de la línea ya no depende del ciclo de manufactura del producto, sino del
tiempo que permanece un artículo en la estación de trabajo más tardada (el
llamado cuello de botella), el cual es siempre menor que el ciclo de manufactura, ya que en cualquier estación de trabajo se realiza sólo parte del
trabajo total. En este punto, es conveniente definir de manera más precisa
el concepto de estación de trabajo.
Estación de trabajo: una estación de trabajo de un sistema de producción está formada por un operador y por el ambiente de trabajo que se le ha
asignado (espacio y equipo) para realizar su trabajo.
Es conveniente recordar que en una estación de trabajo se pueden ejecutar diferentes operaciones (con la única condición de que las ejecute el
mismo operador). Por lo mismo, es fácil imaginar que si se desea incrementar la capacidad de producción de una línea, se podría lograr reduciendo la
duración del cuello de botella, lo que es posible si se divide el trabajo de
esta estación en dos o más estaciones de trabajo (en serie). En el caso en el
que el trabajo asignado a esta estación sea indivisible, aún queda otra alternativa: asignar varias estaciones en paralelo que realicen la misma función
(véase figura 13.13), aunque esta última alternativa implica una mayor inversión en equipo.
Otro concepto necesario para poder definir el problema de balanceo es
el llamado ciclo del balanceo. Como se indicó, la tasa de producción de la
línea está determinada por la duración de la estación de trabajo más tardada (el cuello de botella); esta duración recibe el nombre de ciclo del balanceo. En una línea de producción, el cuello de botella marca el ritmo de
producción, trabajando a máxima capacidad, mientras las demás estaciones experimentan tiempos ociosos, ya que sus duraciones son menores.
Una característica deseable de la línea de producción es que no se experimenten tiempos ociosos excesivos.
Por lo que se ha dicho, la tasa de producción de una línea es más alta a
medida que se crean más estaciones de trabajo en serie; esto es, se divide
Estación B1
Estación A
Estación C
Estación B2
FIGURA 13.13 Línea de producción con estaciones en paralelo
365
13.3 Disposición de planta
más el trabajo. Sin embargo, esta mayor división requiere de más personal
—que ocasiona un mayor costo— para operar las distintas estaciones; por
otro lado, no se gana nada al dividir el trabajo de una estación si ésta no
reduce el ciclo del balanceo, ya que esto último sólo ocasionaría un mayor
tiempo ocioso en las estaciones que se han creado. En consecuencia, la
mejor estrategia para diseñar una línea (que se entenderá como el problema del balanceo de la línea) dada una tasa de producción deseada, que
determina el máximo ciclo del balanceo que se puede tener, se determina
por medio de una configuración de estaciones que minimiza el tiempo
ocioso total.
De acuerdo con esta definición, se necesita medir el tiempo ocioso.
Suponiendo que una línea de producción consta de n estaciones en serie
con duraciones d1, d2, …, dn, respectivamente, donde la mayor duración es
el ciclo de balanceo c, el retardo del balanceo se define por:
⎛ nc − ∑n di
i =1
R=⎜
⎜
nc
⎝
⎞
⎟ 100%
⎟
⎠
(13.3)
Como se puede apreciar, el retardo del balanceo es el porcentaje de
tiempo ocioso total en la línea, ya que en el denominador de la ecuación
(13.3) figura el tiempo que consumen todas las estaciones y en el numerador figura el tiempo total ocioso de las estaciones (tiempo consumido menos tiempo efectivo de trabajo).
Ejemplo 13.5. Cálculo del retardo del balanceo
Supongamos que el ensamble de un producto requiere de tres operaciones
indivisibles en serie (véase figura 13.14). Por lo tanto, la mayor tasa de producción se obtendría si asignamos una estación de trabajo para cada operación (n 3), las cuales tienen las duraciones d1 0.8, d2 0.5 y d3 0.3.
De esta manera, el ciclo del balanceo sería c 0.8, y si consideramos un
turno de cuatro horas con una eficiencia de 80%, la tasa de producción por
turno sería de: P (4)(60)(0.8)/(0.8) 240 unidades, con un retardo de:
R=
3(0.8) − (0.8 + 0.5 + 0.3)
100 = 3%
3(0.8)
Si asignamos una estación de trabajo para la primera estación y otra
estación de trabajo para la segunda y la tercera operaciones en conjunto,
tendríamos sólo dos estaciones (n 2) con duraciones d1 0.8 y d2 0.5
Operación
1
FIGURA 13.14 Operaciones
de una línea de ensamble
Duración 0.8 min
Operación
2
Duración 0.5 min
Operación
3
Duración 0.3 min
366
Capítulo 13
Diseño de planta
0.3 0.8 y un ciclo de balanceo c 0.8, por lo que la tasa de producción
sería también de 240 unidades por turno. En cambio, se estarían utilizando
sólo dos estaciones, lo que implica un menor costo por operarios y, como
se muestra a continuación, un retardo del balanceo menor, ya que:
R=
2(0.8) − (0.8 + 0.8)
100 = 0%
2(0.8)
Se puede reducir aún el número de estaciones a uno, obteniendo también un retardo de cero, pero debemos notar que, en este caso, la tasa de
producción disminuye, ya que c 1.6 y, en consecuencia, se producirían
P (4)(60)(0.8)/(1.6) 120 unidades por turno.
Con este ejemplo se puede apreciar la importancia del balanceo, ya
que, como se ha visto, con un balanceo de línea adecuado se ahorran costos
sin sacrificar la tasa de producción.
En la práctica es muy dif ícil obtener un retardo de cero en la línea,
fundamentalmente por dos razones. La primera es que tendríamos que ser
muy afortunados para obtener duraciones de estaciones exactamente iguales al ciclo del balanceo necesario para lograr la producción deseada. La
segunda razón es que si se toma en cuenta que existen relaciones de precedencia entre las operaciones necesarias en la línea, el espacio de posibilidades se reduce, ya que no es posible asignar una operación a una estación si
en las estaciones previas no se han ejecutado todas las operaciones que se
requieren para poder ejecutar ésta. Reconociendo que es muy dif ícil que
exista un balanceo perfecto, se podría intentar modelar el problema de encontrar el mejor balanceo (menor retardo), dado un ciclo máximo del balanceo, como un problema de programación lineal entera (véase Winston,
2004); sin embargo, el exagerado número de variables y de restricciones
que debe introducirse hace que, para la mayoría de los problemas prácticos, estas formulaciones no puedan resolverse en un tiempo moderado de
cómputo.
Ante la imposibilidad práctica de utilizar métodos exactos para resolver el problema del balanceo cuando hay muchas estaciones de trabajo, se
han ensayado métodos heurísticos para atacar este problema, los cuales no
aseguran que se encuentre el óptimo pero dan buenos resultados en la
práctica y requieren de un tiempo de cómputo razonable. Las heurísticas
más difundidas para el problema de balanceo son las de la regla del candidato de mayor duración y el método de ordenamiento de los índices de posición (ambas pueden consultarse en Sule, 2001).
Evaluación de los costos por transporte de materiales. Una decisión que
influye directamente en el nivel de productividad que alcanza una planta es
la relacionada con la disposición f ísica de los departamentos de planeación, buscando no incurrir en un costo excesivo por el manejo y por el
transporte de materiales entre los diferentes departamentos de planeación.
13.3 Disposición de planta
367
Si bien no se dispone de métodos para encontrar una disposición que minimice, en el sentido estricto del término, el costo de transporte, es posible
intentar evaluar el costo de las diferentes alternativas propuestas para apoyar el proceso de la toma de decisiones. En términos sencillos, se puede
pensar que si existe una alta interacción entre dos departamentos de planeación (un alto volumen de materiales a transportar), estos departamentos deben localizarse f ísicamente uno cerca del otro; el problema es que,
típicamente, todos los departamentos interaccionan entre sí, y la cercanía a
un departamento puede implicar la lejanía de otro. Es por esta razón que
antes de tomar la decisión sobre la disposición f ísica de las instalaciones
aconsejamos realizar un análisis más riguroso, como el que se presenta en
este apartado. Esta decisión es de particular relevancia para los esquemas
de disposición de acuerdo con el proceso, ya que, como se ha visto, bajo
este esquema el transporte entre los departamentos de planeación (talleres) es una fuente importante de costo.
Antes de presentar una metodología para estimar el costo de transporte de acuerdo con una disposición de planta, se debe recordar que éste depende estrechamente de la mezcla de la producción, por lo que en las plantas en las que se requiere de flexibilidad para responder a los cambios en los
patrones de la demanda es conveniente evaluar los costos para distintos
escenarios, suponiendo diferentes niveles de producción para las distintas
líneas.
Para evaluar el costo de transporte bajo una disposición de planta se
requieren los datos del volumen que se transportará por unidad de tiempo
(por ejemplo, mensual o anual) entre cada pareja de departamentos de planeación (los cuales deben ser estimados en función de los requerimientos
de transporte entre los departamentos de planeación, para cada línea de
producto) y sus volúmenes de producción (estimados). De acuerdo con esta información se pueden sugerir los siguientes pasos para obtener una disposición de los departamentos de planeación que proporcione un bajo costo por transporte y por manejo de materiales:
1. Diseñar una disposición tentativa.
2. Calcular las distancias entre cada pareja de departamentos de planeación (el resultado será una matriz de distancias).
3. Multiplicar la distancia entre cada pareja de departamentos de
planeación por el correspondiente volumen de transporte entre los
mismos (el resultado será una matriz de costos).
4. Calcular el costo total de acuerdo con la matriz de costos.
5. Utilizar los datos de la matriz de costos para proponer cambios en
la disposición, que disminuyan el costo de transporte, y repetir el
procedimiento hasta encontrar una disposición satisfactoria.
Se debe indicar que para calcular la distancia entre dos departamentos de
planeación, se acostumbra tomar la distancia entre sus correspondientes
368
Capítulo 13
Diseño de planta
centros de gravedad, lo que equivale a suponer que los flujos de transporte
se distribuyen uniformemente dentro de las áreas de los departamentos.
Asimismo, no se acostumbra utilizar la distancia euclidiana como medida
de la distancia entre dos puntos, sino la distancia rectangular (como en el
siguiente ejemplo), debido a que ésta es más apropiada para representar los
movimientos en una planta, donde, por lo general, no se puede viajar en
línea recta entre dos puntos, sino utilizando corredores o pasillos. En el
siguiente ejemplo se ilustra la aplicación de la metodología propuesta.
Ejemplo 13.6. Disposición de una planta maquiladora
Una empresa dedicada a la manufactura de artefactos electrónicos para el
hogar desea instalar una planta maquiladora en México para producir
equipos de sonido, teniendo como objetivo el abastecimiento del mercado
del TLC. La planta se abastecerá fundamentalmente de los principales insumos: planchas de acero, tarjetas y componentes para los equipos, por lo
que los principales procesos que se instaurarán en la planta serán el formado (corte y estampado), maquinado y tratamiento superficial de las planchas de acero, así como el ensamble y el acabado de los equipos. Teniendo
en cuenta estas consideraciones y la capacidad planeada de la planta, se ha
determinado que ésta debe constar de ocho talleres, cuyos requerimientos
de espacio se presentan en la tabla 13.8.
Los talleres de la planta deberán construirse en una superficie rectangular de 65 m de frente por 40 m de fondo (el requerimiento total de espacio es de 2400 m2). Una primera propuesta para la disposición de la planta
se presenta en la figura 13.15.
Debe resaltarse que esta disposición se presenta en un eje cartesiano
con la finalidad de facilitar el cálculo de las distancias entre los talleres.
Asimismo, se respetan los requerimientos de espacio presentados en la tabla 13.8. Para evaluar el costo de esta disposición, se requieren las estimaciones de los volúmenes de material que serán transportados de un taller a
otro. Estas estimaciones (en m3 al mes) se presentan en la tabla 13.9, y fueron obtenidas a partir de las demandas estimadas de cada modelo de equi-
TABLA 13.8 Talleres de una planta maquiladora
Taller
Espacio
requerido (m2)
Taller
Espacio
requerido (m2)
Recepción (R)
240
Galvanizado (G)
240
Maquinado (M)
360
Pintura (P)
180
Formado (F)
480
Ensamble (E)
480
Limpieza (L)
120
Almacén (A)
300
369
13.3 Disposición de planta
40
R
30
M
F
20
G
P
L
10
A
FIGURA 13.15 Primera
propuesta para la disposición
de la planta
E
0
0
10
20
30
40
50
60
po de sonido que se va a producir, así como de los requerimientos de transporte dentro de la planta para cada uno de ellos.
A continuación, se deben calcular las distancias entre los talleres. Por
ejemplo, para calcular la distancia entre los talleres de formado y de galvanizado se necesitan obtener los centros de gravedad de ambos talleres, que
son el promedio de las coordenadas de los cuatro vértices correspondientes, debido a que los talleres tienen forma rectangular. Teniendo en cuenta
que las coordenadas del taller de formado son (0, 12), (0, 36), (20, 12) y (20,
36), el centro de gravedad resulta (10, 24); de manera similar, el centro de
gravedad del taller de galvanizado resulta (30, 18). Para calcular la distancia
se utiliza la llamada distancia rectangular (véase la sección anterior “Técnicas para la exploración geográfica” en este capítulo); de esta manera, la medida de distancia apropiada entre los talleres de formado y de galvanizado
es la distancia rectangular entre sus centros de gravedad: |10 30| |24
18| 26. Las distancias entre los talleres relevantes para esta primera
disposición se presentan en la tabla 13.10.
TABLA 13.9 Requerimientos de transporte entre talleres (carga/mes)
R
M
F
L
G
P
E
A
Recepción (R)
0
200
100
0
0
0
0
0
Maquinado (M)
—
0
150
0
350
60
20
0
Formado (F)
—
—
0
200
100
0
250
0
Limpieza (L)
—
—
—
0
500
0
200
0
Galvanizado (G)
—
—
—
—
0
50
400
0
Pintura (P)
—
—
—
—
—
0
300
0
Ensamble (E)
—
—
—
—
—
—
0
600
370
Capítulo 13
Diseño de planta
TABLA 13.10 Distancias entre talleres
R
M
F
L
G
P
E
A
Recepción (R)
0
24.5
25.5
46.5
16.5
34
43.5
41
Maquinado (M)
24.5
0
46
22
32
14.5
29
61.5
Formado (F)
25.5
46
0
56
26
43.5
53
20.5
Limpieza (L)
46.5
22
56
0
30
12.5
27
59.5
Galvanizado (G)
16.5
32
26
30
0
17.5
27
29.5
Pintura (P)
34
14.5
43.5
12.5
17.5
0
14.5
47
Ensamble (E)
43.5
29
53
27
27
14.5
0
32.5
Almacén (A)
41
61.5
20.5
59.5
29.5
47
32.5
0
Por último, multiplicando cada entrada de la matriz de distancias
(tabla 13.10) por su correspondiente entrada de la matriz de volúmenes de
transporte (tabla 13.9), se obtiene la matriz de costos que se presenta en la
tabla 13.11. Sumando las entradas de esta matriz de costos se obtiene que,
para esta disposición de la planta, el índice de costo total por transporte es
igual a $109 975.
Observe que las entradas de la matriz de costos también pueden usarse
para identificar las fuentes de costo de transporte más importantes. Por
ejemplo, se puede observar que los valores más altos de la matriz de costos
corresponden al transporte entre los talleres de ensamble y almacén, así
como entre los de formado y ensamble, lo que sugiere que la disposición se
puede mejorar si somos capaces de reducir la distancia entre estos talleres.
Una disposición que toma en cuenta estas sugerencias (aunque también se
TABLA 13.11 Matriz de costos de transporte ($)
R
Recepción (R)
Maquinado (M)
Formado (F)
Limpieza (L)
Galvanizado (G)
Pintura (P)
Ensamble (E)
Almacén (A)
0
M
F
L
G
P
E
A
4900
2550
0
0
0
0
0
0
6900
0
11 200
870
580
0
0
11 200
2 600
0
13 250
0
0
15 000
0
5 400
0
0
875
10 800
0
0
4 350
0
0
19 500
0
371
13.3 Disposición de planta
40
M
R
30
F
20
E
G
10
FIGURA 13.16 Segunda propuesta para la disposición de
la planta
A
P
L
0
0
10
20
30
40
50
60
usan áreas no rectangulares) se presenta en la figura 13.16. El lector puede
comprobar que esta disposición tiene un índice de costo total por transporte de $92 435 (que es menor que el anterior). Es conveniente mencionar que
los cálculos efectuados para calcular el costo de transporte para ambas propuestas se pueden consultar en el archivo Maquila.xls (véase la página web
de este libro).
A partir del ejemplo anterior es fácil imaginar que existe un número
bastante grande de posibles disposiciones que pueden proponerse; por
ejemplo, si se tuvieran ocho posiciones fijas, existirían 8! 40 320 maneras
diferentes en las que podrían arreglarse ocho talleres, lo que dificulta la
posibilidad de encontrar una buena solución por medio de prueba y error.
Con la finalidad de facilitar la búsqueda de una disposición adecuada de la
planta, se pueden utilizar paquetes de software desarrollados para este propósito; dichos paquetes aplican heurísticas que les permiten proponer y
evaluar disposiciones de la planta adecuadas para los volúmenes de transporte entre los talleres, de acuerdo con los espacios requeridos de los mismos para el problema particular en estudio. Algunos de los paquetes más
conocidos son el CRAFT (Computerized Relative Allocation of Facilities),
el COFAD (Computerized Facilities Design), el CORELAP (Computerized
Relationship Layout Planning) y el PLANET (Plant Layout Analysis and
Evaluation Technique). El lector interesado en una descripción más detallada de los métodos que utilizan estos paquetes puede consultar Sule
(2001).
Organización de células de manufactura. Como se indica en una sección
previa, la tecnología celular o de grupos tiene como principal objetivo alcanzar una mayor flexibilidad que la línea de producción tradicional para
producir diferentes componentes, utilizando las mismas instalaciones.
Una célula de manufactura, como se ha visto, está destinada a la manufactura de una familia de piezas o de productos, más que a la de un solo producto en particular. Por lo tanto, un buen diseño de la misma debe tener
como objetivo que los niveles de productividad que se logren en la manu-
372
Capítulo 13
Diseño de planta
factura de los miembros de la familia de productos no se vea disminuida
debido a las mayores exigencias de flexibilidad para producir diferentes
diseños. La amplia difusión que ha tenido este esquema de disposición de
las plantas ha dado lugar al desarrollo de diferentes principios y técnicas
que permiten alcanzar buenos niveles de productividad bajo esta tecnología. En esta dirección, se pueden mencionar, por ejemplo, la automatización de bajo costo (para reducir los costos de apertura de procesos), el empleo de sistemas para la clasificación y la codificación de partes, y las
técnicas para secuenciar la producción en células de manufactura (véase
Sing y Rajamani, 1996). A partir de estas observaciones, se puede intuir
que si bien la manufactura celular está demostrando en la práctica su superioridad al combinar la flexibilidad con el logro de niveles adecuados de
productividad, su implantación exitosa requiere de un mayor esfuerzo
de planeación, siendo los problemas más importantes (debido a sus consecuencias) el diseño de las células de manufactura y la determinación de las
familias de productos que deben asignarse a las células, problemas que comentamos a continuación.
Una familia de partes puede definirse como un grupo de partes que
tienen algún grado de similitud, lo que permite que dicha familia pueda ser
procesada económicamente dentro de una misma célula de manufactura.
La similitud de los miembros de una familia puede estar en función de las
características de diseño (formas parecidas o requerimientos similares de
procesos), incluso podrían tener formas ligeramente distintas, pero compartir requerimientos de operaciones similares. Algunos otros factores que
determinan que ciertos componentes formen parte de la misma familia son
los tamaños de los lotes a producir y su frecuencia. Dado que existe una
gran variedad de factores que determinan la conveniencia o la inconveniencia de considerar a las partes como miembros de la misma familia, se
han propuesto diferentes métodos para atacar el problema de la organización de células de manufactura (para mayor detalle se sugiere consultar
Sule, 2001).
Debido a que este capítulo es una introducción al diseño de planta, no
es posible hacer una presentación amplia de los modelos de optimización
que sirven para resolver muchos de los problemas implícitos en el diseño
de una planta. Se recomienda consultar Tompkins et al. (2003) y Sule (2001)
para profundizar en dichos modelos.
EJERCICIOS PROPUESTOS
1. Identifique los principales esquemas para la disposición de planta, indicando brevemente su
característica distintiva.
Ejercicios propuestos
373
2. ¿Cuáles son las características de un esquema de disposición de planta de acuerdo con el
producto? Discuta el tipo de mercado que generalmente corresponde a los bienes producidos en plantas dispuestas de acuerdo con el producto.
3. ¿Cuáles son las características de un esquema de disposición de planta de acuerdo con el
proceso? Discuta el tipo de mercado que generalmente corresponde a los bienes producidos
en plantas dispuestas de acuerdo con el proceso.
4. ¿Cuáles son las características de un esquema de disposición de planta en grupos? Discuta
el tipo de mercado que generalmente corresponde a los bienes producidos en plantas con
manufactura celular.
5. Una cadena de tiendas de autoservicio posee cinco tiendas en una ciudad. Actualmente, el
traslado de las mercancías hacia las tiendas se realiza desde las ubicaciones de los proveedores (que están fuera de la ciudad) hacia cada una de las tiendas, lo que ha generado problemas de costos elevados y atención poco eficiente de los pedidos, por lo que la cadena ha
decidido establecer un almacén de consolidación, desde el cual se atenderán eficientemente
los pedidos. A continuación se presentan las coordenadas (en kilómetros) de las cinco tiendas, así como sus demandas anuales de transporte (estimadas en camiones al año).
Tienda
Ubicación
Demanda
1
(20, 5)
120
2
(18, 15)
250
3
(3, 16)
160
4
(3, 4)
110
5
(10, 20)
200
a) Determine la localización del almacén de consolidación utilizando el centroide.
b) Los planes de expansión de la cadena incluyen la incorporación de una nueva tienda en
la ubicación (30, 30), con una demanda esperada de 250 camiones de mercancía al año.
¿Cuál sería la ubicación del almacén si se considera esta información?
6. Una empresa de cemento desea incursionar en el mercado del sur del país y desea instalar
uno o dos almacenes para satisfacer sus pedidos. Se han ubicado cuatro ciudades importantes en el sureste (que denotaremos por comodidad como M1, M2, M3 y M4), teniendo dos
plantas para abastecer estos almacenes (denotadas P1 y P2). La localización geográfica de
estos puntos (unidades en km) y los volúmenes estimados de transporte anuales (en envíos
de 50 ton) se detallan a continuación.
374
Capítulo 13
Punto
Diseño de planta
Coordenada en X
Coordenada en Y
Volumen a transportar
P1
640
500
1000
P2
1100
1050
900
M1
320
1200
400
M2
900
1100
500
M3
680
1050
600
M4
1200
800
400
a) Determine la mejor localización del almacén, si la empresa localizara un solo almacén
que reciba todos los envíos desde las dos plantas y los distribuyera a los cuatro mercados.
b) Determine la mejor localización de dos almacenes, si la empresa decide explorar esta
posibilidad bajo la siguiente política de distribución: un almacén recibiría la producción
de P2 y la distribuiría a M1 y M2, y el otro almacén recibiría la producción de P1 y la
distribuiría a M3 y M4.
7. Una compañía dedicada a la comercialización de textiles experimenta una demanda más o
menos constante, la cual puede pronosticarse con relativa facilidad. La compañía posee dos
proveedores: P1 y P2, quienes abastecen la demanda de cuatro grandes tiendas departamentales: T1, T2, T3 y T4. La dirección de la empresa ha autorizado la construcción de uno o
dos almacenes para atender los pedidos de estas tiendas, y se requiere encontrar la localización más conveniente. La localización geográfica (en coordenadas) de los proveedores y de
las tiendas se ilustra en la gráfica siguiente (unidades en decenas de kilómetros) y los volúmenes de transporte (en camiones al mes) se detallan en la tabla.
P2
T1
(130,130)
T2
(35,120)
(90,110)
T3
(60,96)
T4
(80,75)
P1
(65,40)
375
Ejercicios propuestos
Plantas
Producción
(camiones/mes)
Mercados
Demanda
(camiones/mes)
P1
20
T1
5
P2
10
T2
8
T3
6
T4
11
El costo de transporte se estima en $5 por camión, por cada 10 kilómetros de viaje,
mientras que la amortización del costo de construcción de un almacén se estima en $30 000
al mes, más $10 por camión de transporte al mes (considerando el personal y los gastos generales). Se considera que la distancia en línea recta es una buena aproximación a la distancia de viaje.
a) Utilizando el centroide, determine la localización del almacén si se instalara uno solo.
Calcule el costo total de esta política, con base en las estimaciones de costo proporcionadas.
b) Considere la política bajo la cual se instalan dos almacenes. Un almacén recibiría 16
camiones al mes de P1, y los distribuiría a T3 y T4, mientras que el otro recibiría la producción restante y la distribuiría a las otras tiendas. Utilizando el centroide, determine
la mejor localización de los dos almacenes.
c) Determine cuál de las políticas, a o b, es la más económica.
8. Una empresa distribuidora de alimentos del mar desea establecer una planta para congelar
y empaquetar langostas en la Isla Margarita. Las langostas son traídas desde siete diferentes
bahías, de manera que si el origen se establece en la primera bahía, las coordenadas de
las bahías (en kilómetros) y la oferta estimada de envíos por semana son las siguientes:
Bahía
Coordenadas
Oferta
1
2
3
4
5
6
7
(0, 0)
(4, 2)
(6, 4)
(5, 7)
(4, 0)
(0, 6)
(7, 7)
6
5
4
10
7
5
7
a) Considerando que cualquier distancia entre la bahía y la planta será medida como distancia euclidiana, determine la mejor posición para la planta.
b) Si un gerente insiste en que la planta debería instalarse en la primera bahía (ya que tiene muy buena vista), y se estima un costo de $100 por cada kilómetro que recorre un
envío (debido, fundamentalmente, al deterioro de las langostas), compare el costo de
la política obtenida en a contra el costo en que se incurriría si se instalara la planta
en la primera bahía.
376
Capítulo 13
Diseño de planta
9. Una estación de carros para transporte debe ubicarse en el interior de un almacén. Se desea
establecer la estación de manera que se minimice el costo de viaje desde las estaciones de
los operadores, ubicadas como se ilustra en el siguiente cuadro:
Operador
Localización
Operador
Localización
1
(16, 16)
6
(32, 16)
2
(4, 4)
7
(20, 4)
3
(8, 16)
8
(24, 16)
4
(12, 24)
9
(36, 24)
5
(16, 24)
10
(24, 8)
a) Si las estaciones 1, 3, 5, 7 y 9 demandan el carro cuatro veces al día en promedio, y las
restantes cinco veces al día en promedio, determine la ubicación de la estación de carros para minimizar el costo por viajes.
b) Se desea explorar la posibilidad de abrir dos estaciones de carros, una para atender a los
operadores 1, 2, 3, 4 y 5, y la otra para atender a los operadores restantes. Determine la
mejor ubicación para las dos estaciones. Si la empresa estima en $1 el costo por metro
recorrido, calcule el costo en que se incurre en el caso a y compárelo con el de disponer
estas dos estaciones (considere que cada viaje tiene ida y vuelta).
10. Una empresa textil tiene ocho telares, con una disposición de planta como la que se ilustra
en la figura. El control de los telares se ubica en las posiciones denotadas Oi, y los operadores
caminan a través de siete corredores (líneas gruesas en el diagrama).
O6
O5
O4
O1
O2
O3
O7
O8
Las máquinas operan automáticamente, pero requieren la atención de un operador de
mantenimiento cuando el proceso detecta una falla. Las posiciones de los controles, así co-
Ejercicios propuestos
377
mo las frecuencias promedio diarias con que las máquinas requieren servicio, se proporcionan en la siguiente tabla:
Máquina (i )
Estación de control (Oi)
Frecuencia diaria de servicio
1
(0, 0)
3
2
(4, 0)
2
3
(8, 0)
2
4
(8, 7)
1.5
5
(4, 7)
2.5
6
(0, 7)
2.5
7
(0, 5)
4
8
(0, 2)
3.5
Cuando una máquina requiere servicio, ésta desperdicia materiales, de manera que el
costo es proporcional a la demora del viaje, estimándose en $40 por unidad de viaje (no
existe costo por el viaje de regreso a la estación del operador). El salario de un operador es
de $120 al día. Cuando un operador termina el servicio de una máquina, regresa a su estación para verificar si otra máquina requiere servicio.
a) Determine la posición de la estación del operador que minimice los costos de viaje,
bajo la política de contratar un solo operador para las ocho máquinas.
b) Considere ahora la posibilidad de contratar un operador para las máquinas 1, 2 y 3, otro
operador para las máquinas 4, 5 y 6, y otro operador para las máquinas 7 y 8. Determine
las posiciones de las estaciones que minimicen el costo. ¿Qué política, a o b es la más
adecuada?
11. Una empresa consultora desea instalar dos oficinas en su piso principal, una para el Gerente Corporativo (GC) y otra para el Director de Operaciones (DO). En la siguiente tabla se
muestra el número de viajes esperado (por día) entre las oficinas existentes en el piso (secretaría: SE, sistemas: SI, contabilidad: CO y ventas: VE) y las dos nuevas oficinas, así como los
centros de gravedad de cada oficina ya instalada (coordenadas en metros).
378
Capítulo 13
Diseño de planta
Número de viajes
Oficina
Coordenadas
GC
DO
SE
(1, 1)
10
15
SI
(1, 8)
8
7
CO
(8, 1)
12
10
VE
(14, 1)
7
6
GC
—
—
6
DO
—
6
—
Se supone que los viajes se hacen por pasillos (distancias rectangulares).
a) Sin considerar la nueva oficina del DO, encuentre la mejor localización para la oficina
del GC (respecto de las otras oficinas ya existentes).
b) Considerando su respuesta en a, encuentre la mejor localización para la oficina del DO
respecto de las otras cinco oficinas.
c) Considerando su respuesta en b, vuelva a localizar la oficina del GC, pero ahora respecto de las otras cinco oficinas. ¿Esta solución es mejor que la encontrada en b?
12. Se desea construir una planta en un terreno rectangular de 65 m por 40 m, y se han presentado dos disposiciones de planta para los talleres, como las que se ilustran a continuación.
40
R
30
M
F
20
G
P
L
10
E
A
0
0
10
20
30
40
Disposición A
50
60
379
Ejercicios propuestos
40
M
R
30
F
20
E
G
10
P
A
L
0
0
10
20
30
40
50
60
Disposición B
En la tabla se presentan los requerimientos estimados de transporte y manejo de materiales (en toneladas al mes) desde cada taller hacia los demás.
Rec.
Maq.
For.
Recepción
200
100
Maquinado
150
Formado
Limpieza
Galvanizado
Pintura
Ensamble
Lim.
Gal.
Pin.
350
60
20
200
100
250
500
Ens.
Alm.
200
50
400
300
600
a) Encuentre un estimado del costo de la disposición A, teniendo en cuenta que el costo es
proporcional a la distancia de viaje por el volumen de transporte.
b) Compare el costo de la disposición A con el de la disposición B.
Nota: el centro de gravedad de dos regiones, es el promedio ponderado de los centros
de gravedad de las regiones, donde la ponderación es el área de las regiones.
13. Una compañía de seguros está diseñando sus nuevas oficinas. Para ello llevó a cabo un
muestreo en los últimos tres meses y se obtuvieron los siguientes viajes de coordinación
(por mes) entre los empleados de la compañía:
380
Capítulo 13
Diseño de planta
A
Empleado A
B
10
C
D
E
F
75
140
Empleado B
95
Empleado C
130
Empleado D
10
130
Empleado E
95
4
C
F
A
B
E
D
3
2
1
0
0
1
2
3
4
5
6
7
8
9
La gráfica corresponde a una disposición tentativa sugerida por uno de los empleados
para localizar las oficinas.
a) Calcule la matriz de distancias (rectangulares) entre las oficinas.
b) Calcule la matriz de costos para la disposición sugerida por el empleado.
c) Proponga un intercambio entre las oficinas que mejore la disposición sugerida, calculando la matriz de costos y el costo total para la nueva disposición.
Referencias
Bramel, J. y Simchi-Levi, D. (1997). The Logic
of Logistics. Springer Verlag, Nueva
York.
Ross, S. A., Westerfield, R. W. y Jordan, B. D. (2001).
Fundamentos de finanzas corporativas, 5a. Ed.
McGraw-Hill, México.
Sing, N. y Rajamani, D. (1996). Cellular Manufacturing Systems Design Planning and Control.
Springer Verlag, Nueva York.
Sule, D. R. (2001). Instalaciones de manufactura:
Ubicación, planeación y diseño, 2a. Ed. Thomson Learning, México.
Tompkins, J. A., White, J. A., Bozer, Y. A. y Tanchoco, J. M. A. (2011). Planeación de instalaciones,
4a. Ed. Cengage, México.
Winston, W. L. (2005). Investigación de operaciones.
Aplicaciones y algoritmos, 4a. Ed. Cengage,
México.
CAPÍTULO
14
Producción y cadena
de suministro
AUTORES:
Dr. Omar Romero Hernández
Dra. María Cristina Gigola Paglialunga
14.1
14.2
14.3
14.4
Introducción
Pronóstico de la demanda
Planeación agregada de la producción
Administración de inventarios
14.5 Plan maestro de la producción (PMP)
14.6 Planeación de requerimiento de materiales
y JIT
14.7 Administración de la cadena de suministro
14.8 El efecto bullwhip
14.9 Estrategias de sincronización de la cadena
de suministro
14.1 Introducción
En los últimos años las empresas están en un proceso de alta competitividad, por lo que requieren una estrategia diseñada expresamente para mejorar su desempeño. Una parte de la estrategia de negocios y una de las
principales tareas del ingeniero es el diseño y control de la cadena de suministro. Un diseño adecuado debe considerar las relaciones entre la demanda del producto, los recursos humanos y materiales necesarios para la producción, los requerimientos de materia prima y transporte, los niveles de
inventario y la secuenciación de las operaciones, entre otros.
Este capítulo presenta algunas herramientas y conceptos básicos que
permiten al ingeniero familiarizarse con la toma de decisiones relativas al
control de inventarios, el manejo de materia prima, así como la producción
y distribución de productos y servicios, de una manera organizada y en el
contexto de una cadena de suministro eficiente.
14.2 Pronóstico de la demanda
La predicción y toma de decisiones correctas son fundamentales en el funcionamiento de una empresa, y es justo ahí en donde radica el trabajo del
382
Capítulo 14
Producción y cadena de suministro
“pronóstico de demanda”. Pronosticar significa predecir acontecimientos
futuros, éste es el primer paso para realizar una correcta planeación de las
actividades y de los recursos necesarios para que las organizaciones satisfagan su mercado.
Un buen pronóstico es la base para contestar las siguientes preguntas:
¿qué recursos se necesitan?, ¿en qué momento y en qué proporción se necesitarán?, ¿cómo utilizar los recursos existentes?, ¿cuántos adicionales adquirir?
La siguiente sección presenta algunos conceptos introductorios sobre
los elementos a considerar para la predicción de la demanda, así como algunas herramientas cualitativas y cuantitativas que permiten la realización
de un pronóstico.
14.2.1 La demanda
El pronóstico de la demanda no puede ser visto como un asunto trivial,
debido a sus implicaciones en la empresa y a las dificultades inherentes a un
buen pronóstico. A pesar de que en muchas ocasiones se cuente con datos
históricos o patrones establecidos, siempre existe el riesgo de nuevos acontecimientos que pueden distorsionar los patrones de demanda establecidos. La tarea del ingeniero es adelantarse a los cambios en la demanda y
mantenerse al tanto del entorno del mercado y de las herramientas de análisis que surgen cada día.
Patrones de la demanda. En muchas ocasiones se cuenta con datos sobre el comportamiento anterior de la demanda, a los cuales se suele denominar datos históricos. Éstos se obtienen para periodos específicos, como
por ejemplo, la demanda en un mes, en un año, etc. Estos datos, ordenados
en forma cronológica, constituyen lo que se conoce como una serie de
tiempo. Estas series, a su vez, presentan diferentes patrones o comportamientos; los más comunes se presentan en la figura 14.1 y se enuncian a
continuación:
Aleatoriedad: se observa un comportamiento errático de los datos; los
cambios en la demanda no son predecibles.
Tendencia: la demanda aumenta (o disminuye) a una tasa relativamente constante a través del tiempo.
Estacionalidad: la demanda presenta picos o valles en ciertos meses
del año debido a cambios de estación (productos de moda), a condiciones
climáticas o a situaciones establecidas cada año, como el inicio de clases o
el fin de año.
Ciclicidad: los cambios en la demanda son menos predecibles, ésta aumenta o disminuye gradualmente. Este comportamiento se observa cuando se cuenta con datos históricos de varios años (en lugar de meses); también suele ajustarse a comportamientos económicos en algunos países.
383
Cantidad
Cantidad
14.2 Pronóstico de la demanda
Tiempo
a) Estacionaria
b) Tendencia
Cantidad
Año 1
Cantidad
Tiempo
Año 2
E F M A M J
J
A S O N D
1
2
3
4
Meses
Años
c) Estacionalidad
d) Ciclicidad
5
6
FIGURA 14.1 Patrones de la demanda
Una serie de tiempo puede presentar uno o varios de estos patrones;
cuando ninguno de ellos se presenta se dice que la serie es estacionaria, es
decir, la demanda se comporta de manera estable, con una media y una
varianza constantes en el tiempo.
14.2.2 Métodos para pronosticar la demanda
En general, hay dos métodos para pronosticar la demanda: los cualitativos
y los cuantitativos. La decisión en torno a un método o el otro depende del
intervalo de tiempo necesario para que la estrategia empresarial tenga un
efecto, es decir, del horizonte de planeación que se tenga, ya sea de largo o
de corto plazo. Aunque ambos métodos se pueden utilizar de manera combinada, se observa que por lo general los métodos cualitativos tienen mayor relevancia en decisiones de largo plazo, mientras que los cuantitativos
son indispensables en decisiones de corto plazo.
Métodos cualitativos. Los métodos de pronóstico cualitativos se basan
en las percepciones y juicios de valor que se construyen a partir del entorno, en los factores que determinan la demanda y en la presencia o ausencia
futura de éstos. Generalmente se usan para tomar decisiones a largo plazo
y se presentan en la siguiente tabla:
384
Capítulo 14
Producción y cadena de suministro
Método
Estimación educada
Juicio unipersonal basado en la sola experiencia e intuición. Usualmente funciona en plazos cortos y cuando las planeaciones erróneas no
tienen costos elevados.
Ejemplo: el dueño de la cafetería de la escuela sabe que el periodo de
exámenes finales se acerca y que los estudiantes consumen más estas
bebidas energizantes en esa temporada.
Consenso del comité
ejecutivo
Varios especialistas de diferentes departamentos dentro de la empresa
forman un comité que desarrollará el pronóstico de ventas.
Método Delphi
El resultado de este método es determinado por el consenso de las
respuestas obtenidas de los especialistas en cuestionarios respondidos
de manera anónima. Cada miembro responde a una misma pregunta
por ronda; las respuestas son discutidas de manera grupal, con lo que
se determina la tendencia del pronóstico.
Estimaciones de la fuerza
de ventas
El pronóstico obtenido es resultado del estimado a vender por los
miembros de la fuerza de ventas.
Encuesta a consumidores
Se ponderan las respuestas obtenidas por los consumidores del producto: cuánto pretenden consumir. Es una investigación directa con los
clientes.
Analogía histórica
Con frecuencia se usa en el pronóstico de productos nuevos. Se hace
el pronóstico con base en los niveles de ventas de un producto similar
durante su ciclo de vida.
Investigación de mercados
Se divide en estudios de mercado y pruebas de mercado. El estudio
de mercado está basado en los cuestionarios, entrevistas y estadísticas directamente aplicados entre los consumidores, y las pruebas de
mercado son determinadas por la aceptación de un producto lanzado
en pequeñas regiones representativas. En ambos casos se pretende
determinar el comportamiento del mercado.
Métodos cuantitativos. Los métodos de pronóstico cuantitativos, también llamados modelos causa-efecto, corresponden a modelos matemáticos de regresión o ajuste. En términos generales, el pronóstico de la demanda se obtiene a partir de datos históricos, por ejemplo, la historia de las
ventas en el tiempo de una empresa o producto. Éstos se utilizan para decisiones de corto plazo, a continuación se enumeran los más sencillos:
Regresión lineal: con este modelo es posible encontrar la relación (lineal) entre una variable dependiente (la demanda en este caso) y una independiente, que representa un factor que influye sobre la variable independiente (el precio del producto, por ejemplo). La relación se obtiene a través
del método de mínimos cuadrados. Un modelo de regresión simple es
aquel que considera una única variable independiente; un modelo de regresión múltiple incluye más de una variable independiente.
Promedio móvil (moving average): el pronóstico para la demanda de
hoy es resultado del promedio de ventas de cierto número de periodos pa-
385
14.3 Planeación agregada de la producción
sados. Por ejemplo, tomemos los datos de ventas de una empresa que se
muestran en la tabla siguiente. Para pronosticar las ventas en el periodo 9,
utilizando un criterio de cuatro semanas, es necesario calcular: (100 90
105 93)/4 97
Semana
1
2
3
4
5
6
7
8
Ventas
50
75
95
80
100
90
105
93
Promedio móvil ponderado (weighted moving average): este modelo es
muy parecido al anterior, la diferencia radica en que en éste se calcula un
promedio ponderado; por lo regular, a los últimos periodos se les asigna
mayor importancia. Por ejemplo:
Semana
1
2
3
Ventas
76
48
93
0.25
0.30
0.45
Ponderación
El pronóstico para la semana 4 es: 0.25(76) 0.30(48) 0.45(93)
75.25.
Suavizamiento exponencial: el pronóstico para un periodo es un promedio ponderado de la última observación y los pronósticos previos, que
resultan en un promedio ponderado de todos los datos del pasado, pero
con mayor peso en los más recientes.
Es importante mencionar que los pronósticos por lo general son erróneos debido a la gran cantidad de factores y variables que pueden intervenir. En consecuencia, se indica que todo buen pronóstico deberá contener
una medida del error asociado al mismo (típicamente, la desviación estándar) y de la variabilidad asociada a los valores promedio calculados a partir
de los métodos cuantitativos.
14.3 Planeación agregada de la producción
Una vez establecido el pronóstico de la demanda, el ingeniero deberá enfrentarse al problema de la planeación de la producción. El principal objetivo de la planeación agregada de la producción (PAP) es determinar cuál
es la combinación óptima entre la tasa de producción, el nivel de fuerza de
trabajo y el inventario disponible.
Existen tres estrategias que se pueden utilizar cuando se elabora un
plan agregado de producción.
Estrategia de persecución de la demanda: el nivel de la fuerza laboral se
ajusta a cada periodo en función de cambios anticipados en la demanda.
Esto significa que la empresa contrata o despide empleados conforme a sus
requerimientos de producción.
386
Capítulo 14
Producción y cadena de suministro
Mano de obra o tasa de producción constante: el número de trabajadores se mantiene constante durante todo el horizonte de planeación.
Mixta: combina las otras dos, su objetivo es encontrar la combinación
que genere el costo más bajo.
14.3.1 Unidad agregada de producción (UAP)
La política de un PAP se basa en las unidades agregadas de producción,
éstas corresponden a unidades agregadas de productos similares o con alguna característica en común, típicamente llamados familias o clases de
productos. Por ejemplo, si una empresa se dedica a la manufactura de electrodomésticos y tiene diferentes modelos, la UAP podría ser, simplemente:
número de electrodomésticos, toneladas de producto, horas-hombre de
trabajo o valor del producto.
Para poder realizar un análisis del problema de la planeación agregada,
es necesario considerar los siguientes aspectos:
Problemas de cuello de botella. Emerge de cambios imprevistos en la
demanda, que no pueden ser resueltos por restricciones en la capacidad,
por ejemplo equipo averiado.
Horizonte de planeación (T ). Cuando el horizonte de planeación es muy
corto, los niveles de producción no serán adecuados para satisfacer la demanda más allá de T, la contraparte sería cuando el horizonte de planeación es muy largo y, en consecuencia, los pronósticos de la demanda son
imprecisos.
Demanda determinada. Una suposición básica en la elaboración de los
planes agregados de producción es que la demanda está determinada y se
conoce. Esto permite enfocar el plan hacia cambios sistemáticos, que de
otra manera no podrían analizarse; sin embargo, el ingeniero deberá tener
presente la posibilidad de errores en el pronóstico de la demanda.
14.3.2 Costos asociados
Debido a que el problema del plan agregado tiene que ver con la optimización de recursos, es necesario llegar a un resultado que minimice los costos. Por esto es importante definir qué costos se van a tomar en cuenta para
hacer este análisis. Los análisis básicos asociados a la elaboración de las
PAP asumen relaciones lineales en los costos. A continuación se presentan
los más comunes:
•
•
Costos de suavizamiento. Resultan de un cambio en la producción y los niveles de trabajo de un periodo al otro. Los más importantes corresponden a los costos por contrataciones y despidos (Ch
y Cf, cost of hiring y cost of firing, respectivamente).
Costos de mantener el inventario (Ci). Es proporcional al número de unidades, se mantiene en inventario al final de cada periodo.
387
14.3 Planeación agregada de la producción
$ Costo
Pendiente Cf
FIGURA 14.2
Pendiente = Ch
Ft = cantidad de despidos
•
•
•
•
Ht = cantidad de contrataciones
Costo de faltantes y penalización (Cp). Ocurre cuando la demanda no se satisface por completo y comúnmente representa una penalización a la empresa (ventas perdidas). Este costo es proporcional al número de unidades faltantes.
Costo de tiempo regular (CR). Costo de producir una UAP durante horas normales de trabajo, sin incurrir en tiempos extras ni en
tiempos inactivos.
Costo de tiempo extra (Co). Es el costo por producir una UAP en
tiempo irregular.
Costo de subcontratación (Cs). Costo de comprar una UAP a un
tercero.
14.3.3 Generación de planes agregados
Para ilustrar la metodología a seguir en la realización de planes agregados,
se presentará un ejemplo que será resuelto conforme a la estrategia de per-
$ Costo
Pendiente
Cp
FIGURA 14.3
Inv. positivo
Pendiente = Ci
Inventario
Inv. negativo
388
Capítulo 14
Producción y cadena de suministro
secución. Posteriormente, el mismo ejemplo será resuelto mediante una
estrategia de mano de obra constante. La última parte de esta sección presentará las ventajas y desventajas de cada plan, y la necesidad de incorporar
estrategias mixtas y de programación lineal.
Estrategia de persecución de la demanda. Una empresa latinoamericana
se dedica a la producción de tres modelos distintos de calentadores eléctricos. Se observa que el tiempo de producción de cada calentador es similar
y que las diferencias entre los tres modelos se deben a la etapa de terminado. La empresa ha decidido realizar las estimaciones de demanda considerando una unidad agregada de producción equivalente a un calentador
eléctrico. La información de la demanda agregada para los siguientes seis
meses se muestra en la siguiente tabla:
Mes
Días laborables
Demanda pronosticada
1
22
1500
2
24
800
3
17
750
4
20
1300
5
18
950
6
15
2000
Actualmente la empresa cuenta con 400 trabajadores, el inventario al
inicio del periodo (mes 0) es de 300 unidades y se desea un inventario de
500 unidades a fines del semestre. Después de varias observaciones y cálculos de tiempo y movimientos, se sabe que un obrero produce 0.2 unidades
al día.
Los costos asociados a este problema son: costo de contratar un obrero
$500; costo de despedir un obrero $1000; costo de mantener una unidad en
inventario $90/mes.
La siguiente tabla muestra el plan agregado de producción que resulta
mediante una estrategia de persecución, en la cual, durante cada periodo,
se contrataron o despidieron los obreros requeridos para cumplir exactamente con la demanda. Observe que la cantidad de obreros requeridos es
redondeada a su entero superior para cumplir con la demanda pronosticada. En forma similar, las cantidades producidas son redondeadas a su entero inmediato inferior, ya que no se puede considerar un producto completo
hasta que está 100% terminado.
389
14.3 Planeación agregada de la producción
A
B
C
D
E
F
G
H
I
J
Mes
Días de
trabajo
Demanda
pronosticada
Demanda
neta
Unidades
producidas
por obrero3
Número
mínimo de
obreros4
Cantidad
contratada
Cantidad
despedida
Producción
F*E
Inventario
1
22
1500
12001
4.4
273
—
1275
1201
1
2
24
800
800
4.8
167
—
106
801
1
3
17
750
750
3.4
221
54
—
751
1
4
20
1300
1300
4
325
104
—
1300
0
5
18
950
950
3.6
264
—
61
950
0
6
15
2000
25002
3
834
570
—
2502
2
728
294
∑
1500 300 1200
2000 500 2500
3
0.20 * B
1
4
2
5
5
D/E
400 273
Costo total (CT) Costo de contratar Costo de despedir Costo de
inventario
CT (728 obreros * $500/obrero) (294 obreros * $1000/obrero) (5 unidades * $90/unidad) $658 450
Estrategia de mano de obra constante. Se considera el mismo problema
que en la estrategia anterior. Para elaborar un plan agregado de mano de
obra constante, es necesario calcular el número mínimo de obreros para
cada mes. De estos resultados, el mayor número debe contratarse y mantenerse durante todo el horizonte de planeación. Esto permite garantizar que
se cumplirá con la demanda pronosticada en todos los periodos del plan
agregado. Así, el número mínimo de obreros para cada mes está dado por
la siguiente tabla:
A
B
C
D
E
E
F
Mes
Días de
trabajo
Demanda
neta
Demanda
acumulada
Unidades producidas por obrero3
Unidades
acumuladas producidas
por obrero3
Número mínimo
de obreros4
1
22
12001
1200
4.4
4.4
273
2
24
800
2000
4.8
9.2
218
3
17
750
2750
3.4
12.6
219
4
20
1300
4050
4
16.6
244
5
18
950
5000
3.6
20.2
248
6
15
25002
7500
3
23.2
324
390
Capítulo 14
Producción y cadena de suministro
Conforme a lo anterior, se observa que el número mayor de obreros
requeridos correspondió en este problema al indicado en el sexto mes. La
empresa deberá asegurarse de contar en su nómina con 324 obreros.
La siguiente tabla muestra los resultados del PAP. Observe que sólo ocurren contrataciones o despidos al inicio del plan agregado de producción.
A
D
E
F
G
H
I
J
Mes
Demanda
acumulada
Unidades
acumuladas
producidas
por obrero
Número de
obreros
Contrataciones
Despidos
Producción
F*E
Inventario1
1
1200
4.4
324
0
400 324
76
1425
225
2
2000
9.2
324
0
0
2980
980
3
2750
12.6
324
0
0
4082
1332
4
4050
16.6
324
0
0
5378
1328
5
5000
20.2
324
0
0
6544
1544
6
7500
23.2
324
0
0
7516
16
0
76
∑
5425
Costo total (CT) Costo de contratar Costo de despedir Costo de
inventario
CT (0 obreros * $500/obrero) (76 * $1000/obrero) (5425 * $90/unidad) $564 250
A partir de los dos problemas anteriores se observa que ambos planes
presentan desventajas considerables. Por una parte, el plan de persecución
de la demanda evita la acumulación de inventarios, debido a que cada periodo despide y contrata personal, según su pronóstico de la demanda. En
la realidad, esto es dif ícil de llevar a cabo, ya que genera inestabilidad laboral en el personal y falta de motivación hacia la empresa. Por otra parte, el
plan de mano de obra constante (o producción constante) mantiene una
misma cantidad de empleados durante todo el horizonte de planeación, lo
cual genera enormes cantidades de inventario en periodos de baja demanda y, en consecuencia, altos costos de producción.
Los planes agregados de producción pueden aprovechar las ventajas de
ambas estrategias y disminuir las penalidades de las mismas a partir de una
estrategia mixta. En dicha estrategia la mano de obra no varía cada mes,
14.4 Administración de inventarios
391
sino que se definen periodos más amplios (trimestres, cuatrimestres o semestres). En consecuencia, se efectúan varios cambios a lo largo del horizonte de planeación para minimizar el tiempo ocioso de los empleados en
periodos de baja demanda y para que, en periodos en donde ésta es alta, no
falte fuerza laboral.
Sin embargo, existe un gran número de posibles planes mixtos y variantes al plan agregado. Para encontrar el plan óptimo de producción el
ingeniero requiere utilizar herramientas analíticas que le permitan identificar las condiciones con las cuales: los costos totales del plan alcanzan un
nivel mínimo, o las utilidades totales de la empresa alcanzan un nivel máximo. Esto se puede lograr, inicialmente, a partir del planteamiento de problemas de programación lineal, en los cuales se fija una función objetivo,
las restricciones del sistema y las condiciones iniciales y finales.
Es importante notar que uno de los principales factores que influyen en
cualquier plan agregado de producción es el inventario. Esto se debe a que
afecta directamente la disponibilidad de material para seguir produciendo,
además, los costos asociados a éste podrían ser muy altos. Este tema se
tratará en la siguiente sección.
14.4 Administración de inventarios
El manejo de inventarios desempeña una importante función en el éxito de
una empresa. La política de inventarios debe ser seleccionada cuidadosamente por los departamentos de mercadotecnia, operaciones y finanzas.
La selección del nivel adecuado de inventario no es trivial y obedece a intereses cruzados. Por un lado, mantener altos niveles de inventario puede
ocasionar grandes costos, pero por otro lado bajos niveles podrían representar falta de materias primas, ventas perdidas y mal servicio al cliente.
14.4.1 Categorías de inventario
Dependiendo de la naturaleza y el propósito de los productos a almacenar,
existen tres categorías de inventario:
•
•
•
Materias primas: inventario de insumos necesarios en la producción.
Producto en proceso: inventario de productos que no han pasado
por todas las etapas de producción.
Producto terminado: artículos listos para venderse.
14.4.2 Consideraciones para seleccionar un nivel
de inventarios
El cuadro siguiente muestra las ventajas asociadas a cada nivel de inventarios (alto o bajo).
392
Capítulo 14
Producción y cadena de suministro
Inventarios altos
Inventarios bajos
Servicio al cliente: se favorece la entrega a tiempo,
evita faltantes que resultan en la pérdida de una venta
y que se pierdan clientes por entregas atrasadas.
Reduce los costos por mantener inventario,
éstos son: intereses o costo de oportunidad;
para financiar inversiones en inventario,
las empresas suelen recurrir a préstamos.
Asimismo, la inversión representa la falta de
inversión en otros activos de la empresa.
Costos por orden: con altos niveles de inventario se
incurre en costos relacionados con la compra, seguimiento, recepción y papelería.
Almacenaje y manejo: el costo por mantener
el almacén (renta, insumos, seguros, etc.) es
proporcional al número de unidades.
Preparación: reduce costos por limpieza, mantenimiento entre corridas de producción y, en consecuencia, disminuye tiempos muertos en mano de obra y
equipo.
Impuestos y seguros: éstos son proporcionales a la cantidad de inventario.
Costo de transporte: transportar más material provoca
una reducción en el costo unitario de transporte y la
repetitividad en los pedidos.
Mermas: robo hormiga, obsolescencia y
deterioro.
Pago a proveedores: normalmente al hacer pedidos
grandes se obtienen descuentos.
14.4.3 Tipos de inventario
Inventario de ciclo: varía en relación con el tamaño del pedido o lote. Un
ciclo se considera como el tiempo entre pedidos.
Inventario de seguridad: nivel mínimo de inventario que se mantiene
para apoyar el servicio a clientes y evitar distorsiones en la línea de producción.
Inventario anticipado o de previsión: su objetivo es evitar cambios bruscos en los niveles de producción. Los excedentes de producción de meses
anteriores están orientados a satisfacer una demanda futura, particularmente en artículos cíclicos o de temporada.
Inventario en tránsito: consiste en aquellos pedidos que han sido realizados, pero están en ruta (no han sido entregados).
14.4.4 Determinación del nivel de inventarios
Modelo EOQ (cantidad económica del pedido). Éste es el modelo básico para
analizar distintos tamaños de pedido (Q), su objetivo es determinar el mejor nivel de inventarios y, en consecuencia, el tamaño del pedido que minimiza los costos de inventario.
Existe una serie de supuestos y simplificaciones que permiten utilizar
el modelo EOQ, entre las que destacan:
•
•
La tasa de demanda es conocida y constante.
No existen restricciones en cuanto al tamaño del lote (pedido).
393
14.4 Administración de inventarios
Orden
recibida
Tasa de demanda
Inventario a la mano (unidades)
Q
FIGURA 14.4 Modelo EOQ
Inventario de
ciclo promedio
Q
—
2
1 ciclo
•
•
•
Tiempo
Los únicos costos relevantes son el costo por manejo de inventario
y un costo fijo por lote.
Las decisiones de suministro de un artículo A son independientes
del artículo B.
No hay incertidumbre en los tiempos de entrega o suministro.
El comportamiento básico del nivel de inventario de un producto se
muestra en la figura 14.4. En esta figura se observa una caída lineal en el
nivel de inventario proporcional a la tasa de demanda. Asimismo, se observa que en el momento en que el nivel de inventario es cero, coincide con la
llegada de la siguiente orden, la cual tiene un tamaño (Q). Este comportamiento se repite a lo largo de varios ciclos. Al mantenerse el supuesto que
la demanda es conocida y constante a lo largo de los ciclos, se obtiene la
cantidad promedio a mantener en inventario, también conocida como inventario de ciclo promedio (Q/2). Las consideraciones anteriores permiten
identificar el tamaño del pedido (Q) que mejor conviene a la empresa en
términos de costos.
El costo total de manejo de inventarios considera dos componentes
principales: el costo por mantener inventario y el costo por ordenar. El
comportamiento de estos costos es opuesto conforme aumenta el tamaño
del lote (Q). Por una parte, el costo por mantener resulta de multiplicar el
inventario de ciclo promedio (Q/2) por el costo unitario por manejo de inventario en un periodo (H). Mayores valores de Q ocasionan mayores costos de manejo de inventario (HC). Por otra parte, el costo por ordenar representa el costo por pedido (S) y el número de veces que se ordena en un
año (periodo). A su vez, el número de veces que se ordena es resultado de
dividir la demanda entre el tamaño del lote (D/Q). Como puede notarse,
mayores valores de Q indican un menor número de pedidos al año y, en
consecuencia, menores costos de ordenar o preparar (OC).
394
Capítulo 14
Producción y cadena de suministro
Costos anuales
Costo total = HC + OC
Costos de mantener
inventario (HC)
Costos de
ordenar (OC)
FIGURA 14.5 Modelo EOQ
Tamaño del lote (Q)
El comportamiento de ambos costos, así como el costo total de inventarios con respecto al tamaño del lote (Q), se muestran en la figura 14.5.
Existen varias formas de determinar el tamaño óptimo de lote en el que
se minimizan los costos de inventario (EOQ).
Una alternativa sería el método gráfico, en donde se suponen distintos
valores de Q y se calculan: costos de manejo de inventario, costos de ordenar o preparar y costos totales. La EOQ corresponderá al punto en el que
los costos por mantener inventario y el costo por ordenar son iguales y
corresponden al menor valor de los costos totales.
Una segunda alternativa es el método analítico y la deducción de una
fórmula para determinar la EOQ. El procedimiento consiste en:
•
•
•
•
Plantear la ecuación de costos totales de inventario.
Derivar la función con respecto al tamaño del lote (Q).
Igualar la función a cero e identificar el punto de inflexión.
Despejar el valor de Q.
Estos cuatro pasos se muestran a continuación:
CT HC OC
CT [(Q/2)H] [(D/Q)S]
dCT/dQ [H/2] [(D/Q2)S] 0
Q=
2 DS
= EQO
H
La fórmula anterior es consistente y permite determinar qué cantidad deberá solicitarse a los proveedores, de forma tal que se minimicen los costos
de administración de inventario. Sin embargo, todavía queda un punto a
considerar: el sistema para controlar el inventario.
14.4 Administración de inventarios
395
14.4.5 Sistemas de control del inventario
Existen básicamente dos alternativas para el control de inventarios: el sistema de revisión continua y el sistema de revisión periódica. En el primero se
cuenta con información sobre la posición del inventario en todo momento.
Así, el sistema basa su funcionamiento en la determinación de un punto de
reorden. Una vez que la posición del inventario disminuye hasta un valor
equivalente al punto de reorden, se levanta un pedido. En el segundo sistema no se cuenta con información en línea sobre la posición del inventario,
lo cual obliga a determinar el periodo de revisión más conveniente para la
empresa (P), quedando preestablecido (por ejemplo, cada semana o cada
mes), y se levanta un pedido de un tamaño equivalente al necesario para
alcanzar un nivel de inventario objetivo. Ambos sistemas se muestran con
mayor detalle a continuación.
Sistema de revisión continua (Q ). También conocido como sistema de
punto de reorden (ROP). Selecciona un nivel mínimo de inventario (punto
de reorden) que indica el momento en que se debe ordenar una cantidad
fija (Q) del artículo en cuestión. La posición del inventario (IP) mide la capacidad para satisfacer la demanda:
IP OH SR BO
Donde SR es igual a las recepciones programadas, OH es el inventario disponible y BO son órdenes atrasadas. Cuando IP es igual al punto de reorden
(R) se debe colocar el pedido.
Selección de R cuando la demanda (D) es conocida: si no hay incertidumbre en el tiempo que se tarda el proveedor en entregar, entonces no es
IP
Inventario a la mano (unidades)
Orden
recibida
Q
OH
R
Orden
colocada
L
FIGURA 14.6 Revisión contInua
TBO
396
Capítulo 14
Producción y cadena de suministro
IP
Inventario a la mano (unidades)
Orden
recibida
FIGURA 14.7 Revisión
continua. Incertidumbre
en la demanda
IP
Orden
recibida
Orden
recibida
Orden
recibida
Q
OH
Q
Q
R
Orden
colocada
Orden
colocada
Orden
colocada
L1
TBO 1
L2
TBO 2
L3
Tiempo
TBO 3
necesario mantener inventario de seguridad y el punto de reorden será
igual a la demanda durante el tiempo de entrega.
ROP Demanda durante tiempo de entrega
Selección de R cuando la demanda es incierta: cuando la demanda (D)
no se conoce con certeza, es necesario mantener un inventario de seguridad, por eso el punto de reorden resultará de sumar la demanda promedio
durante el tiempo de entrega más el inventario de seguridad.
El nivel de inventario de seguridad depende del nivel de servicio deseado y del grado de la incertidumbre en la demanda. El algoritmo básico para
el cálculo del inventario de seguridad y posteriormente el nivel ROP es el
siguiente:
ROP Demanda durante tiempo de entrega Inventario de seguridad
Suponiendo que la demanda durante el tiempo de entrega se comporta
conforme a una distribución normal, entonces se tendrá la siguiente expresión:
ROP = DL + zs L
En donde DL representa la demanda promedio durante el tiempo de
entrega, Z es el número de desviaciones estándar con respecto a la media
(la cual se puede consultar en tablas de distribución normal); σ es la desviación estándar de la demanda y L representa el tiempo de entrega.
Sistema de revisión periódica (P ). Es conocido también como sistema de
reorden a intervalos fijos. Su principal característica es que los pedidos se
397
14.4 Administración de inventarios
Inventario a la mano (unidades)
T
Orden
recibida
Orden
recibida
Orden
recibida
Q3
Q1
Q2
Orden
colocada
Orden
colocada
L
L
P
L
Tiempo
P
FIGURA 14.8 Revisión periódica
colocan al final de cada revisión, lo que significa que el tamaño del pedido
(Q) puede cambiar, pero el tiempo entre cada orden es fijo. Bajo este sistema se revisa la posición del inventario cada periodo (P) y se coloca una
orden de tamaño T IP, donde T es el nivel de inventario objetivo, es decir,
el IP deseado después de cada orden. La descripción de este sistema se ilustra en la figura 14.8.
En este sistema persisten cuatro suposiciones del modelo EOQ. No
existen restricciones en cuanto al tamaño del pedido. Son significativos los
costos por manejo del inventario y el costo por pedido. Las decisiones del
artículo A son independientes del artículo B. No hay incertidumbre en los
tiempos de entrega.
Para seleccionar el tiempo entre revisiones (P) se puede designar cualquier intervalo conveniente según el tipo de negocio, o se puede ajustar
tomando como base el modelo EOQ, es decir, definir el periodo entre revisiones como: (P EOQ/D).
Al seleccionar el nivel de inventario deseado (T) es necesario tomar en
cuenta que la nueva orden debe ser suficientemente grande para que el nivel de inventario dure hasta después de la próxima revisión, la cual se encuentra a P periodos del tiempo de distribución. Esto se conoce como el
intervalo de protección y se define como L P. De manera similar al sistema de revisión continua, las siguientes dos ecuaciones estiman el nivel de
inventario deseado ante un comportamiento de la demanda certero o con
incertidumbre:
T Demanda durante el intervalo de protección (L P)
T = DL+ P + zs L + P
398
Capítulo 14
Producción y cadena de suministro
14.4.6 Manejo de inventarios
Al manejar inventarios de manufactura es necesario determinar qué cantidad de inventario manejar en materias primas, productos en proceso y productos terminados. Los gerentes determinan estos niveles clasificando los
artículos como especiales o estándar. Para un artículo especial se ordena
sólo la cantidad suficiente para cubrir los requerimientos de los clientes, es
decir, tienen un nivel de inventario más bajo. Los artículos estándar son
fabricados para acumular inventario, es decir, siempre están disponibles.
Otro asunto de interés para el ingeniero es determinar el manejo y control de inventarios cuando se cuenta con cientos o miles de productos distintos en el almacén. Debido a que no todos los productos tienen la misma
importancia para la empresa, el primer paso consiste en clasificarlos. El
análisis ABC permite clasificar los productos de acuerdo con un criterio de
valor monetario u operativo que establece su importancia para la organización: utilidad generada, demanda, costo, valor del producto, riesgo o combinaciones de los anteriores.
Clasificación ABC. Cuando el inventario consta de diferentes productos,
mediante esta técnica es posible identificar los artículos que necesitan mayor atención y control. Los productos se clasifican conforme al principio de
Pareto, en el cual se establece que un pequeño porcentaje de artículos representa un alto porcentaje del valor total y viceversa.
Conforme a lo anterior, los artículos se dividen en tres categorías: la
categoría A, que representa aproximadamente 80% del valor; la categoría B,
de aproximadamente 15% del valor, y la categoría C, que representa 5% del
valor.
Uno de los criterios más usados es el uso monetario, que resulta de
multiplicar la demanda del producto por su precio o costo. Para calcular el
uso monetario es necesario utilizar una tabla como la siguiente:
Artículo
Precio
(unidades)
Demanda anual
(unidades al año)
Uso monetario anual
Uso monetario
acumulado
Porcentaje total
1
P1
D1
U1 P1 * demanda 1
U1
U1/∑U
2
P2
D2
U2
U1 U2
U2 /∑U
…
…
…
…
…
…
n
Pn
Dn
Un
U1 U2 … Un
Un /∑U
Es necesario ordenar los artículos del mayor uso monetario al menor.
Para realizar un análisis ABC, son necesarios los siguientes pasos:
1. Seleccionar el criterio; por ejemplo: costo, frecuencia de uso, valor
monetario, riesgo, aportación, utilidades, importancia estratégica.
14.4 Administración de inventarios
399
% valor acumulado
100%
90%
70%
C
B
A
% acumulado artículos
FIGURA 14.9 Análisis ABC
2. Ordenar los productos según el criterio.
3. Calcular porcentajes.
4. Establecer clases: A, B y C (o más).
Por lo general, la división de artículos y su relación con el criterio se comportan conforme a la figura 14.9.
La curva generada por la clasificación de los artículos permite establecer las siguientes conclusiones generales en cuanto a cada uno de los tres
tipos de artículos:
A Los de mayor valor y que requieren mayor control.
B De menor valor y que requieren control normal.
C De poco valor y que requieren un control muy simple.
Es importante precisar algo importante sobre los artículos tipo C. A pesar
de no ser los de mayor importancia, algunos artículos tipo C pueden requerirse en inventario por:
•
•
•
•
•
Ser más importantes que lo que la clasificación indica.
Estar asociados a artículos clasificados en A.
Originar grandes utilidades.
Ser artículos nuevos.
Ser refacciones importantes.
El siguiente ejemplo ilustra los pasos requeridos para la clasificación ABC
por uso monetario de 10 artículos.
400
Capítulo 14
Producción y cadena de suministro
TABLA 1 Análisis ABC
Categoría
% de artículos
% de artículos acumulados
% por valor
% por valor acumulado
A
10
10
70
70
B
20
30
20
90
C
70
100
10
100
TABLA 2 Costo y demanda
T1
T2
T3
Costo unitario (S)
3
2
3
8
2
10
1
5
20
4
Demanda semanal (*100)
2
25
1
30
10
10
5
2
1
3
T1
T2
T3
6
60
3
Artículo
T4
T5
T6
T7
T8
T9
T 10
TABLA 3 Uso anual
Artículo
Uso anual
T4
240
T5
20
T6
100
T7
5
T8
10
T9
20
T 10
12
Uso anual Costo unitario por demanda
Uso anual 3 2 6
Artículos reordenados conforme a su uso anual:
Uso anual Costo unitario por demanda
Uso anual 8 30 240
T4
T6
T2
% acumulado de artículos
10
20
30
40
50
60
70
80
90
100
Uso anual
240
100
50
20
20
12
10
6
5
3
Uso acumulado
240
340
390
410
430
442
452
458
463
466
% anual de uso acumulado
52
73
84
88
92
95
97
98
99
100
Categoría
A
B
B
C
C
C
C
C
C
C
Artículo
T5
T9
T10
T8
T1
T7
T3
14.4.7 Otros modelos de inventario
El manejo de inventarios y su administración comprende muchas otras situaciones y modelos también relevantes para el ingeniero. Estos modelos
cubren situaciones más reales y eliminan algunas de las suposiciones deri-
14.5 Plan maestro de la producción (PMP)
401
vadas del modelo EOQ. Posiblemente, tres modelos que forman parte de
cualquier curso introductorio a inventarios serían:
Reabastecimiento no instantáneo. Diseñado para situaciones en las que
el artículo se produce dentro de la empresa, por lo que cada unidad puede
emplearse tan pronto como esté lista; es decir, no hace falta esperar a que el
lote esté terminado.
Modelo de descuentos. Supone que el proveedor ofrece diferentes precios, dependiendo del tamaño del pedido; es decir, hace descuentos por
cantidad.
Modelo del periodiquero. Se aplica a bienes perecederos, como la comida, o con ciclos de vida cortos, como los artículos de moda o los periódicos.
Este modelo permite seleccionar la cantidad de pedido que maximiza la
utilidad esperada, tomando en cuenta dos factores: por un lado, se evita
comprar artículos de más, puesto que no se podrán vender los excedentes
(nadie querrá comprar un periódico del día anterior), o comprar muy poco,
ya que se perderían ventas.
Además de los modelos anteriores, existen otros que en su mayoría
corresponderán a situaciones más específicas o a adaptaciones de los modelos anteriores. Es responsabilidad del ingeniero conocer los principios de
cada modelo e identificar el más adecuado para cada propósito dentro
de su empresa.
14.5 Plan maestro de la producción (PMP)
Una vez determinado el plan agregado de producción y el papel que representan los inventarios dentro de la empresa, es necesario familiarizarse con
el concepto de plan maestro de la producción (PMP). EL PMP permite alcanzar los objetivos de la empresa y determinar con mayor detalle los requerimientos y disponibilidad de cada artículo (desagregado) dentro de la
empresa.
14.5.1 Elaboración de un plan maestro de producción
Para elaborar un plan maestro de producción (PMP) primero es necesario
cuantificar el inventario proyectado y, después, establecer los días y el tamaño de la producción.
Al inventario proyectado al final de este periodo es necesario sumarle
el inventario al final del último periodo y la cantidad que quedó pendiente
en el plan maestro de producción al inicio de este periodo, y luego restar los
requerimientos proyectados para este periodo.
Posteriormente, se deben establecer los días y el tamaño de la producción. El propósito principal es que nunca falte inventario disponible; por
402
Capítulo 14
Producción y cadena de suministro
ejemplo, si se espera insuficiencia en el inventario, será forzoso planear el
requerimiento de materiales para compensarla. Para ello se utiliza la planificación de requerimientos de materiales (MRP, siglas del inglés material
requirement planning). A continuación se muestra un ejemplo.
Plan maestro de producción para las semanas 1 y 2.
Semana
1
2
Pronóstico
45
50
Pedidos
47
45
Cantidad disponible
50
3
(50 0 47) 3
(3 0 50) 47*
Inventario proyectado disponible
Cantidad en el MPS
* El pronóstico es mayor que los pedidos, el inventario proyectado disponible es negativo. La insuficiencia debe ser resuelta programando una cantidad en el MPS que habrá de terminarse en la
semana 2.
14.6 Planeación de requerimiento de
materiales y JIT
El plan de requerimiento de materiales y los sistemas justo a tiempo son
dos sistemas comúnmente adoptados en las empresas para el suministro de
materiales y las operaciones.
14.6.1 Planeación de requerimiento de materiales (MRP)
Se utiliza para administrar inventarios supeditados a una demanda dependiente. Los elementos del inventario tienen una demanda dependiente,
porque dependen de la demanda de otros elementos. Por ejemplo, el requerimiento de llantas para una fábrica de automóviles depende de la demanda
de éstos. El auto, o cualquier producto que se fabrica con una o varias partes, se llama elemento padre; las llantas o las ventanas son componentes.
El sistema MRP estima la demanda de los componentes en función del
pronóstico de la demanda de los elementos padres.
Información requerida. El sistema MRP requiere de una lista de materiales, de los planes maestros de producción y de los registros de inventario.
Con esta información y la demanda independiente del componente (para
refacciones y mantenimiento) se determina la demanda de los componentes y se elabora un plan de requerimientos de materiales.
403
14.6 Planeación de requerimiento de materiales y JIT
Lista de materiales (BOM): en esta lista se enumeran los componentes
de un elemento padre y las cantidades de uso (número de componentes necesarios para producir el elemento padre).
Plan maestro de producción (PMP): el PMP especifica la cantidad de
elementos a producir y el momento en el tiempo requerido.
Registro de inventario: el registro de inventario detalla la política del
tamaño de pedido, el tiempo de entrega, los pedidos, las entregas esperadas, los retiros de inventario y las revocaciones de pedidos, entre otros. En
este registro todo está ordenado por fases de tiempo.
Elementos del plan de requerimientos de materiales. Existe un registro
de MRP para cada componente, en él se encuentran:
•
•
•
•
•
Requerimientos brutos, que resultan de la demanda de los elementos padres.
Recepciones programadas de pedidos que han sido hechos, pero
no se han recibido.
Inventario proyectado disponible, que ya se ha explicado previamente en este capítulo.
Recepciones planeadas de pedidos que no se han hecho, pero que
se harán para impedir insuficiencias en el inventario proyectado
disponible.
Pedidos planeados, que indican el momento en que se debe hacer
un pedido.
A continuación se presenta el ejemplo de un registro de planificación de
requerimientos de materiales:
Semanas
1
2
3
4
5
Requerimientos brutos
270
0
0
150
0
Recepciones programadas
350
Inventario proyectado disponible (10)
90
90
90
40
40
Recepciones planeadas
Pedidos planeados
100
100
En este ejemplo, el tiempo de entrega de un pedido es de dos semanas, y la
política de inventarios establece un tamaño de lote de 100 unidades.
14.6.2 Sistemas justo a tiempo (JIT)
Los sistemas justo a tiempo JIT (por sus siglas en inglés de just in time),
también llamados inventario cero o sistemas kanban, buscan la eficiencia
en la producción, con el propósito de mejorar la calidad de los productos o
servicios.
404
Capítulo 14
Producción y cadena de suministro
Los sistemas justo a tiempo tienen varias características, como:
Método de arrastre. La producción se inicia a partir de la demanda del
comprador. Este método es recomendable para procesos repetitivos y con
tiempos cortos; por ejemplo, para una empresa de comida rápida. Cuando
los procesos no tienen estas características, se utilizan métodos de empuje,
en los que se inicia la producción antes que se presente la demanda, como
ocurre con el método MRP.
Calidad consistentemente alta. Los sistemas JIT tienen como objetivo
mantener siempre buena calidad, evitando sobrantes y la exigencia de inspección del trabajo. Para lograr esto es necesario aplicar métodos como la
administración de la calidad total (TQM).
Lotes de tamaño pequeño. Los sistemas JIT no utilizan inventarios de
seguridad, pero sí inventarios de ciclo pequeños. Esto genera una reducción del tiempo de entrega y en el tiempo de procesamiento.
Cargas uniformes en la estación de trabajo. Con los sistemas JIT, la cantidad de trabajo diaria de las estaciones de trabajo se vuelve relativamente
semejante. Esto se debe a que se realiza el mismo tipo de ensamble y un
número de unidades constante diariamente.
Componentes y métodos de trabajo estandarizados:
Relaciones estrechas con proveedores: necesarias para conservar un número de proveedores pequeño y mantener buenas relaciones con ellos.
Fuerza de trabajo flexible: las empresas que utilizan sistemas JIT tienen
empleados capacitados para cumplir diversas funciones.
MRP II y ERP. Actualmente, un número considerable de empresas ha
identificado el importante mercado que representan los programas de gestión de empresas. Empresas como SAP, JB Edwards, People Soft, Oracle,
entre muchas otras, se han enfocado hacia el desarrollo continuo de nuevos
productos que combinen, en un mismo software, información financiera,
contable, producción, logística y recursos humanos. Bajo estos esquemas
se busca integrar en un solo sistema las distintas áreas funcionales de la
empresa. Este sector representa una de las principales áreas de desarrollo
dentro de la administración de operaciones y la generación de sistemas
para planeación y control de la producción.
14.7 Administración de la cadena de suministro
Los conceptos relacionados con las secciones anteriores forman sólo una
parte de las áreas profesionales de la ingeniería industrial. Sin embargo, no
es suficiente con generar un producto, lo más importante es hacerlo de
forma eficiente, en un tiempo razonable y a entera satisfacción del cliente;
es decir, tenerlo listo en la cantidad y el momento que el cliente lo desee y a
un precio competitivo.
14.7 Administración de la cadena de suministro
405
Desde hace varias décadas ha cobrado auge el estudio de conceptos
logísticos, de distribución y, en general, de manejo eficiente de productos,
servicios y de información. En la actualidad, estos flujos se agrupan bajo el
concepto de administración de la cadena de suministro.
La cadena de suministro es el conjunto de organizaciones e individuos
comprendidos en el flujo de productos, servicios, dinero y la información
relacionada, desde su origen (proveedores) hasta el consumidor final. Se
trata de un modelo conceptual que integra todos los procesos vinculados
con proveedores, plantas de manufactura, centros de almacenamiento, distribuidores y detallistas, con el objeto de que los bienes sean producidos y
distribuidos en las cantidades adecuadas, en los lugares y tiempos correctos, con rentabilidad para todas las entidades relacionadas y cumpliendo
con los niveles de servicio requeridos para satisfacer al consumidor final
(Simchi Levi et al., 2003).
La administración de la cadena de suministro consiste, entonces, en
planear, instaurar y controlar eficiente y eficazmente estos flujos en y entre
los componentes de la cadena. Pero la cadena es una red compleja y dinámica de instalaciones, organizaciones e individuos, con objetivos distintos
y generalmente en conflicto: bajo costo unitario de producción, nivel de
servicio alto y poco inventario. La forma más sencilla de obtener bajos costos unitarios es produciendo en lotes grandes, lo que resulta en periodos
con altos inventarios si la demanda no es estable; con lotes pequeños se
puede caer fácilmente en el desabasto y en demérito de los niveles de servicio. El reto es sincronizar la demanda con la oferta para encontrar un balance entre estos objetivos; cuando algún miembro de la cadena produce,
adquiere más allá de la demanda real o reduce demasiado su inventario
intentando minimizar costos locales, toda la cadena sufre el efecto. Se requiere integración dentro de la empresa, colaboración entre las organizaciones y sincronización de todo el sistema para lograr flujos de productos e
información sin interrupción, sin cuellos de botella. Es importante notar
que el consumidor final forma parte de la cadena de suministro; la demanda del consumidor final es el motor de la cadena y ésta no sólo depende del
precio o la disponibilidad del producto, sino también del mercado y la economía en su conjunto (Gigola, 2004).
Este interés creciente por adoptar el modelo de cadena de suministro
se debe primordialmente a dos factores: la globalización de los mercados y
el desarrollo tecnológico. El primero ha originado una fiera competencia
mundial, con la proliferación de productos innovadores y con ciclos de vida
cortos. La calidad del producto, antes un factor de diferenciación, hoy es
una exigencia; la competencia radica ahora en la disponibilidad del producto en el lugar y el tiempo precisos. El acceso a nuevas tecnologías de información, de comunicación y de transporte permite el desarrollo de métodos
y herramientas más eficientes para sincronizar la oferta y la demanda,
coordinando las actividades de proveedores, productores y distribuidores.
406
Capítulo 14
Producción y cadena de suministro
Las empresas ya no compiten como unidades aisladas y autónomas. La
cadena de suministro es una secuencia de procesos (de productos, información y dinero) que trascienden los límites de la empresa. La organización tradicional basada en áreas funcionales (mercadotecnia, producción,
finanzas, etc.) con estrategias de operación independientes y medidas de
desempeño e incentivos por áreas fragmenta los procesos y sus objetivos.
Una lata de refresco comprende procesos de al menos seis empresas de
manufactura y 319 días de proceso total; una interrupción en el suministro
de materiales e información entre cualquiera de ellas tendría repercusiones
importantes en el resto de la cadena. Tradicionalmente, la industria refresquera resuelve el problema adquiriendo más envases de los requeridos para
su ciclo de producción (inventarios altos) o integrándose verticalmente para producir su propia lata y desviando recursos hacia un negocio que no es
el suyo. La integración colaborativa con proveedores, en un esquema de
ganancias compartidas enfocado a generar flujos de valor a lo largo de la
cadena con medidas de desempeño globales, proporciona una verdadera
ventaja competitiva.
El diseño del producto tiene implicaciones importantes en el costo de
la cadena de suministro. Se dice que 80% del costo logístico proviene de la
transportación, el almacenamiento y el manejo del inventario del producto, aspectos totalmente sensibles a sus características f ísicas. Dado que
una buena parte de este costo se determina desde el diseño, el proceso de
desarrollo de un producto debe comprender todos los componentes de la
cadena de suministro en cada una de sus etapas (investigación, diseño,
manufactura y lanzamiento), para asegurar la introducción rápida y exitosa al mercado con el menor costo total (Romero, 2004). Un envase muy
atractivo (objetivo de mercadotecnia), pero dif ícil de embalar y estibar,
puede generar un costo elevado de manejo, almacenamiento y transportación.
La sociedad requiere productos respetuosos del medio ambiente. Ahora nos ocuparemos de la green supply chain, porque los problemas ambientales están vinculados con el desarrollo de nuevos productos y sus procesos
de manufactura. El reciclado y reúso de productos y componentes requiere de una cadena extendida, con flujos en reversa después de la venta y del
consumo, lo que da lugar a la closed loop supply chain.
Con la apertura de los mercados, actualmente los proveedores, productores, distribuidores y consumidores se encuentran localizados en diferentes puntos del mundo. No es lo mismo administrar una cadena de suministro local que una global. Las distancias, los tiempos, las diferencias
culturales y los cruces de frontera generan dificultades adicionales. Es, quizás, en la global supply chain donde el desarrollo tecnológico representa su
mejor papel. Mediante comunicaciones en tiempo real e interconectividad
en los sistemas se puede obtener integración y visibilidad total de la cadena,
aun en lugares muy distantes y con sistemas diferentes.
14.8 El efecto bullwhip
407
El outsourcing o “tercerización” (third party logistics: 3PL) de ciertas
actividades, como transportación y almacenamiento, es otra realidad que
muchas empresas están incorporando en su estrategia, dejando estas actividades a un tercero especializado para enfocarse en su propio negocio y
reducir costos. El concepto ha evolucionado, ahora un 4PL (fourth party
logistics) ejerce la actividad de planificación y coordinación del flujo de información desde proveedores hasta clientes. Diseña la arquitectura logística y el sistema de información para integrar los procesos sin ejecutar los
flujos f ísicos, que son confiados al 3PL.
Pero quizá la realidad más visible es el desarrollo acelerado de las tecnologías de información, cada vez más accesibles a las empresas, independientemente de su tamaño. Cualquier estrategia encaminada a reducir costos, reducir tiempos de suministro y aumentar el nivel de servicio requiere
del manejo de una gran cantidad de datos para generar información confiable y a tiempo (Simchi-Levi, 2003). El sistema de información desempeña
una importante función en la toma de decisiones, ya que antes de cualquier
cambio (desde una simple mejora de un proceso operativo hasta una reconfiguración de la cadena de suministro) es preciso hacer un diagnóstico
de la situación actual, pero no hay diagnóstico sin información. Por otra
parte, el flujo de información entre proveedores, productores y clientes es
un factor crítico en el manejo eficiente de la cadena de suministro. Los sistemas de intercambio electrónico de datos (EDI), la Internet, los sistemas
de identificación de producto por radiofrecuencia (RFID) y, en particular,
el comercio electrónico ciertamente están cambiando la forma de hacer
negocios.
14.8 El efecto bullwhip
La figura 14.10 muestra una cadena de suministro simple de cuatro niveles
y un miembro por nivel: la planta productora, un distribuidor, un mayorista y un detallista. La planta produce obteniendo materiales e insumos de
sus proveedores, el consumidor final establece la demanda real y pone en
funcionamiento a la cadena logística que debe mover el producto a través
de los canales.
¿Qué ocurre cuando cada miembro del sistema actúa de manera independiente, tratando de optimizar su proceso, pero sin observar el efecto
global? Veamos un ejemplo simple, pero no muy alejado de las prácticas
comunes.
El detallista se enfrenta a la demanda del consumidor final, los demás
miembros de la cadena se enfrentan a la orden colocada por el nivel inmediato inferior. El tiempo de suministro (lead time) en cada nivel incluye el
tiempo de entrega y el tiempo de proceso de la orden. Es importante tomar
en cuenta estos dos aspectos, ya que se trata de procesos distintos que se
realizan mediante entidades y actividades diferentes. El sistema de proceso
408
Capítulo 14
Producción y cadena de suministro
Está montada la imagen
Proveedores
Tiempo de entrega
Planta
Tiempo de entrega
Tiempo de proceso de la orden
Distribuidor
Tiempo de proceso de la orden
Tiempo de entrega
Mayorista
Tiempo de entrega
Tiempo de proceso de la orden
Detallista
Demanda
FIGURA 14.10 Cadena de
suministro
del consumidor
Consumidor
de la orden es, generalmente, interno a cada miembro del sistema; el proceso de entrega de la orden depende del miembro del nivel superior, así como
del modo de transportación.
Esta amplificación de la variabilidad de la demanda a lo largo de la cadena, conocida como bullwhip effect, es actualmente estudiada con gran
interés por los expertos en la administración de la supply chain.
Del ejemplo anterior podría concluirse que el efecto es producido por
un mal pronóstico de la demanda, pero esto es sólo parte del problema.
Mejorar la técnica de pronóstico puede incluso empeorar la situación, si no
se usa adecuadamente. Se requiere mayor coordinación y un flujo adecuado de información, como se verá más adelante.
El bullwhip effect es conocido desde 1961 como efecto Forrester, quien
estudia el problema desde un enfoque de dinámica de sistemas. Forrester
concluye que los sistemas complejos en los que intervienen fuerzas e intereses diversos presentan un dinamismo generador de errores, inexactitudes y volatilidad en la información, que no puede ser analizado únicamente
desde una perspectiva administrativa unilateral; requiere ser observado en
su totalidad con un enfoque sistémico.
En la década de 1990, los ejecutivos de Procter & Gamble observaron
que, si bien la demanda de pañales en el mercado es estable, la demanda de
sus distribuidores presentaba fuertes variaciones de un periodo a otro, provocando exceso o falta de inventarios a lo largo de la cadena, malos pronós-
14.8 El efecto bullwhip
409
ticos, capacidad insuficiente o excesiva, con niveles bajos de servicio al
cliente y altos costos generales para el sistema. Ellos le dieron el nombre de
bullwhip effect. El problema pasó inmediatamente a manos de académicos
de prestigiadas universidades norteamericanas, quienes estos últimos años
se han dedicado a identificar las causas y proponer posibles soluciones para
reducir o mitigar el fenómeno.
Entre las causas más significativas encontradas hasta la fecha, se mencionan las siguientes:
1. El pronóstico de la demanda y la información parcial.
2. Los tiempos de suministro (lead time) y la consolidación de pedidos (batch ordering).
3. Las fluctuaciones en los precios y las promociones.
4. “Inflar” la orden como reacción al riesgo de desabasto (shortage
gaming).
Estas causas también están interrelacionadas, por lo que el remedio de una
puede provocar la intensificación de las otras. En las siguientes secciones se
detallará cada una de las causas del efecto bullwhip.
14.8.1 El pronóstico de la demanda y la información parcial
Generalmente, cada miembro de la cadena pronostica su demanda observando la orden pasada (o la histórica, en el mejor de los casos) de su cliente
directo y no la demanda del consumidor final, excepto en el caso del detallista. El error en el pronóstico de su cliente se incorpora a su propio pronóstico. Algunas empresas reaccionan ante este efecto utilizando técnicas
de pronósticos cada vez más sofisticadas; sin embargo, ninguna técnica de
pronósticos puede evitar el efecto amplificador de la demanda cuando el
error está en los datos. Una manera de contrarrestar este efecto es compartir la información real de la demanda final. Nótese, sin embargo, que aun
compartiendo la misma información, si cada uno utiliza una técnica de
pronóstico distinta o prácticas distintas de compras (puntos de reorden),
esto puede contribuir a la variabilidad en la demanda.
Otra práctica común es pronosticar la demanda para cada cliente o
centro de distribución de manera separada y aun por productos individuales. La primera regla a tomar en cuenta en un pronóstico es que éste “siempre será erróneo”; por lo tanto, es preferible distribuir los errores que sumarlos. Por otra parte, una demanda mayor a la pronosticada de un cliente
puede siempre ser completada con la demanda menor de otro (risk pooling).
Cuando se coloca una orden se actualiza el inventario y se incluye un
inventario de seguridad, cuyo monto depende no sólo de la variabilidad en
la demanda, sino también de la incertidumbre y demora en los tiempos de
suministro. Esto nos lleva a la segunda causa del efecto bullwhip.
410
Capítulo 14
Producción y cadena de suministro
14.8.2 Los tiempos de suministro y la consolidación
de los pedidos
Para cada miembro del sistema el tiempo de suministro es el resultado de
dos procesos: colocar la orden al proveedor y recibirla (véase figura 14.10).
El primero depende directamente de la empresa, de su sistema de proceso
de la orden; el segundo, en la mayoría de los casos, del proveedor, de su
proceso de surtir la orden y del sistema de transportación. El tiempo total
de suministro y su variabilidad se incorporan al pronóstico de la demanda
para calcular inventarios de seguridad; a mayor incertidumbre y tiempo,
mayor inventario de seguridad para mantener un nivel específico de servicio al cliente. Asimismo, cuando se utiliza un sistema de máximos y mínimos en el manejo de inventarios, el proveedor observa lotes de pedidos en
cierto momento del mes o de la semana, en lugar de la demanda real en el
tiempo. La razón para ordenar por lotes no sólo se asocia al sistema de inventarios, sino también a minimizar los costos de transportación, de procesar órdenes más frecuentes y a obtener descuentos por compras grandes;
es más barato transportar pedidos grandes poco frecuentes, que pedidos
pequeños muy frecuentes; los costos de transacción no dependen generalmente del tamaño del pedido, sino de su frecuencia. Sin embargo, a pesar
de que las órdenes esporádicas y grandes son más baratas, esto provoca
movimientos bruscos en el inventario y mayores costos de almacenamiento, porque la demanda real no sigue este patrón. Cuando este ciclo se repite
en el proveedor, el efecto se reproduce de manera cada vez más pronunciada a lo largo de la cadena.
Si cada miembro de la cadena recibe órdenes que reflejen la demanda
diaria real, el efecto puede disminuirse. Los costos administrativos de procesar la orden pueden reducirse con sistemas de transacción electrónicos
que reducen el tiempo y el papeleo, ofreciendo descuentos por pedidos de
mezclas de productos en lugar de un solo pedido grande de un solo producto. Los costos de transportación pueden reducirse consolidando la carga de
varios proveedores o con el uso de proveedores de servicios de transportación, que pueden lograr economías de escala consolidando, combinando
cargas pequeñas desde y hacia diferentes proveedores y clientes.
14.8.3 Las fluctuaciones en los precios y las promociones
Cuando se ofrecen descuentos o promociones especiales de manera esporádica, se venden cantidades mayores durante ese periodo, las cuales se
mantienen en inventario para luego no volver a comprar en los periodos
siguientes. Como consecuencia, los datos muestran el patrón de ventas,
pero no el de consumo, una manifestación frecuente del efecto bullwhip.
Una política de “precios bajos todos los días”, por el contrario, promueve compras regulares a lo largo de la cadena, manifiesta el verdadero patrón
de consumo y disminuye la variabilidad ficticia de la demanda. Los incenti-
14.9 Estrategias de sincronización de la cadena de suministro
411
vos de compra no son perjudiciales per se, un buen sistema de promociones
debe estar perfectamente coordinado desde el productor hasta el detallista
para evitar distorsión en la información, esto es algo que no se consigue
simplemente con un sistema de punto de venta (POS), el cual captura información de las ventas, pero no de la demanda real. Recuérdese que cualquier sistema de inventarios requiere información de la demanda, no de las
ventas.
14.8.4 “Inflar” la orden como reacción al riesgo
de desabasto (shortage gaming)
“Pedir 100 para que me manden las 50 que necesito.” Esta práctica es común cuando se sospecha que el productor o distribuidor está racionando el
producto por problemas de capacidad o por posibles cambios en los precios de los materiales. El riesgo al desabasto puede ser pasajero, pero deja
en el sistema información distorsionada que tarda varios periodos en estabilizarse. Esta información pasa al pronóstico y de allí al sistema de inventarios. Las consecuencias son previsibles. El proveedor puede, en este caso,
surtir a partir de información histórica, en lugar de hacerlo con base en la
nueva orden. Una mayor visibilidad a lo largo de la cadena que permita
compartir información de ventas, inventarios, capacidad y cambios de precios es, sin embargo, la mejor manera de eliminar esta práctica y sus consecuencias.
14.9 Estrategias de sincronización de
la cadena de suministro
Cada empresa tiene sus propias cadenas de suministro con características
particulares que dependen de los productos y su mercado, pero aun compartiendo productos y mercados, no hay empresas iguales y, por ende, tampoco un modelo de negocio que se ajuste a todas. Sin embargo, pueden identificarse problemas generales y plantearse estrategias generales que deben
adaptarse a cada situación particular. Algunas prácticas que han dado resultado en la sincronización de la cadena de suministro y que han sido
implementadas con éxito por algunas empresas son las siguientes:
Tecnologías de información. Reducir el tiempo de suministro simplificando el proceso de colocar la orden mediante sistemas electrónicos de
transferencia de información. Los sistemas de intercambio electrónico
de datos (EDI) han sido utilizados por algunas empresas desde hace varios
años. Hoy en día resultan caros y poco relacionados con el medio, todo
parece indicar que la tendencia se inclina a usar la red Internet.
Productos personalizados con entrega directa. Cuando se manejan productos muy diferenciados para los cuales es muy dif ícil pronosticar su demanda y los niveles de inventario son altos, algunos fabricantes han optado
412
Capítulo 14
Producción y cadena de suministro
por un rediseño de sus productos que permite que la diferenciación se realice en niveles de la cadena más cercanos a los centros de consumo. HewlettPackard y sus impresoras constituyen un ejemplo de esta práctica. Cuando
se trata de productos con un ciclo de vida muy corto, como en el caso de
equipos de cómputo (Dell Computer, por ejemplo), algunas empresas han
optado por un sistema de productos “a la medida” y con distribución directa. El secreto detrás de estas estrategias está en el manejo de un menor
número de productos o componentes en inventario, para los cuales es más
fácil pronosticar su demanda (demanda agregada).
ECR (respuesta eficiente al consumidor), QR (quick response) y EDLP
(every day low prices). Son algunas iniciativas implementadas con éxito en
las industrias alimenticia y textil para sincronizar la cadena de suministro.
Están asociadas al uso de sistemas de información (POS, EDI), cruce de
andén (cross-dock) en lugar de centros de distribución tradicionales y administración de categorías de productos.
CPFR (collaborative planning, forecasting and replenishment). Son planes
y procesos de negocios desarrollados conjuntamente por los miembros de
la cadena. Una comunicación interactiva entre las partes permite transferir
pronósticos y planes promocionales de las categorías de productos, con
una mejor ejecución de los planes, pronósticos más precisos, altos niveles
de servicio, costos bajos y una cadena de suministro más estable.
Estrategia VMI (vendor managed inventory). En esta estrategia la información se centraliza en el productor, quien monitorea los niveles de inventario del sistema y decide sobre tiempos y cantidades de entrega. Centralizar la información permite una mayor sincronización de la cadena de
suministro, con economías de escala y reducción de los tiempos de espera
y niveles de inventario. Requiere el uso de tecnologías de información y una
relación estrecha de colaboración y confianza entre las partes, ya que, con
frecuencia, el productor coloca el producto bajo “consignación”.
EJERCICIOS PROPUESTOS
1. Suponga que los datos trimestrales de ventas de una empresa (en miles de unidades) en los
últimos dos años son: 200, 250, 175, 186, 225, 285, 305 y 190.
a) Usando promedios móviles de tres periodos, calcule los pronósticos un paso adelante
para los periodos 4 a 8.
b) Usando promedios móviles de cinco periodos, calcule los pronósticos un paso adelante
para los periodos 6 a 8.
2. Asuma que una analista identifica distintos pesos en los últimos cuatro trimestres: 10%,
25%, 30% y 35%, respectivamente. Determine el promedio móvil ponderado del noveno
trimestre.
Referencias
413
3. Analice las estrategias de persecución de la demanda y mano de obra constante, ¿cuáles
cree que sean sus ventajas y desventajas? ¿En qué se relacionan?
4. Una cadena de zapaterías vende cierto modelo de tenis a una tasa relativamente constante
y equivalente a 70 pares por semana. Cada par les cuesta $250 y lo venden a $400. Asimismo, a la zapatería le cuesta $1800 levantar un pedido, mientras que los costos por mantener
el inventario están basados en una tasa anual de interés de 16%.
a) Determine el número óptimo de pares que la tienda debe comprar y el tiempo que debe
transcurrir entre cada orden.
b) Calcule los costos anuales por ordenar y por mantener inventario.
c) Elabore un diagrama que describa este problema, suponiendo que se cuenta con un
sistema de revisión continua.
d) Suponga que el tiempo de entrega de cada pedido es de 1 semana y que la desviación
estándar de la demanda durante el tiempo de entrega es de 20 pares por semana.
Calcule el inventario de seguridad requerido para un nivel de servicio de 90% (z 1.28)
y el nuevo valor del punto de reorden (ROP).
5. Mencione los cuatro tipos de inventario que existen y dé un ejemplo de cada uno de ellos.
Referencias
Anderson, D. R., Sweeney, D. J. y Williams, T. A.
(2003). An Introduction to Management Science.
Quantitative Approaches to Decision Making,
10a. Ed. Thomson, Ohio.
Anupindi, R. et al. (2001). Managing Business Process
Flows. Prentice Hall, New Jersey.
Ballou, R. H. (1999). Business Logistics. Prentice Hall,
New Jersey.
Bartels, R. (1982). “Marketing and Distribution Are
Not Separate”, en International Journal of
Physical Distribution and Materials Management, vol. 12, pp. 3-10.
Cachon, P. (1999). “Managing Supply Chain Demand
Variability with Scheduled Ordering Policies”, en
Management Science, vol. 45, núm. 6.
Emerson, C. y Grimm, C. (1998). “The relative
importance of logistics and marketing
customer service: a strategic perspective”, en
Journal of Business Logistics, vol. 19, núm. 1,
pp. 17-32.
Forrester, J. W. (1958). “Industrial Dynamics: A
Major Breakthrough for Decision Makers”, en
Harvard Business Review, vol. 38, julio-agosto,
pp. 37-66.
Gaither, N. y Frazier, G. (2002). Operations Management. Soth-Western, 9a. Ed. Thomson.
Gigola, C. “Los efectos de una mala sincronización
de la cadena de suministro: Bullwhip Effect”, en
Escuela de Negocios, año 3, vol. 5, ITAM,
México, 2001.
Kahn, K. y Mentzer, J. (1996). “Logistics and interdepartmental integration”, en International Journal
of Physical Distribution and Logistics Management, vol. 26, núm. 8.
Knod, E. M. y Schonberger, R. J. (2001). Operations
Management. Meeting Customer Demands, 7a.
Ed. McGraw-Hill.
Krajewski, L. y Ritzman, L. (2002). Administración
de operaciones. Estrategia y análisis, 5a. Ed.
Prentice Hall.
LaLonde, B. (1997). “Supply Chain Management:
Myth or Reality?”, en Supply Chain Management
Review, Peerless Media LLC.
LaLonde, B. (1998). “Supply Chain Evolution by The
Numbers”, en Supply Chain Management
Review, Peerless Media LLC.
Lee, H., Padmanabhan, V. y Whang, S. D. (1997).
“Information Distortion in a Supply Chain: The
414
Capítulo 14
Producción y cadena de suministro
Bullwhip Effect”, en Management Science, núm.
43, pp. 546-558.
Louis, R. S. (1997). Integrating Kanban with MRPII.
Automating a Pull System for Enhanced JIT
Inventory Management. Productivity Press,
Portland.
Monden, Y. (1990). El sistema de producción de
Toyota. Instituto de Altos Estudios Empresariales, Pricewaterhouse, Macchi, Buenos Aires.
Murphy, P. y Poist, R. (1996). “Comparative views of
logistics and marketing practitioners regarding
interfunctional coordination”, en International
Journal of Physical Distribution and Logistics
Management, vol. 26, núm. 8.
Nahmias, S. (2003). Production and Operations
Management, 4a. Ed. McGraw-Hill.
Oliver, R. y Weber, M. (1982). “Supply Chain
Management: logistics catches up with strategy”,
en Christoper, M., Logistics. The strategy issues.
Outlook, Booz, Allen and Hamilton Inc.,
Londres.
Romero S., Gigola C., Romero O. (2004). “Incorporation of effective engineering design, environmental performance and logistic planning for
products LCM”, Proceedings of the 2nd World
POM Conference and 15th Annual POM
Conference, Cancún.
Simchi-Levi, D., Kaminsky, P. y Simchi-Levi, E.
(2003). “Designing and Managing the Supply
Chain”, 2a. Ed. McGraw-Hill, Nueva York.
Spear, S. y Bowen, H. K. (1999). “Decoding the DNA
of the Toyota Production System”, en Harvard
Business Review, Boston, septiembre-octubre,
pp. 97-106.
Voorhess, R. y Coppett, J. (1986). “Oportunidades de
la mercadotecnia y la logística en la década de
los 90”, en Logística: Aspectos estratégicos.
Limusa, México.
CAPÍTULO
15
Simulación de sistemas
AUTOR:
15.1 Introducción
15.2 Simulación estocástica de evento discreto
15.3 Simulación con Excel y VBA
Dr. David Muñoz Negrón
15.1 Introducción
El término sistema se utiliza en diversas disciplinas para identificar los elementos y la dinámica de un fenómeno que se pretende entender, analizar
y/o diseñar, desde el punto de vista de la disciplina correspondiente. De
acuerdo con Schmidt y Taylor (1970), un sistema es una colección de entes
que interaccionan para lograr un objetivo. Por ejemplo, en ingeniería industrial se pueden estudiar los sistemas industriales (por ejemplo, cadenas
de suministro), que constan de materias primas, recursos humanos y recursos de capital, organizados para producir y distribuir eficientemente manufacturas y/o servicios. De la misma manera, en economía se pueden estudiar los sistemas desde el punto de vista del bienestar de los agentes
considerados en el fenómeno económico y, similarmente, cada disciplina
estudia los sistemas desde su perspectiva.
Sin duda, la humanidad ha estudiado sistemas desde épocas muy remotas. En un principio, trató de entender los sistemas naturales a través de la
experimentación con el sistema real. La búsqueda de conocimiento condujo a desarrollar, primero, modelos f ísicos de sistemas (prototipos, modelos
a escala, etc.) que le permitieran llevar a cabo experimentos controlados y,
posteriormente, teorías y modelos matemáticos que pudieran explicar y
predecir el comportamiento de los sistemas, tanto de los ya existentes como
de los que se desarrollaron. Un modelo f ísico es una imitación, por lo gene-
416
Capítulo 15
Simulación de sistemas
ral más simple, del sistema real, cuya experimentación, bajo condiciones
controladas, permite estudiar el comportamiento del sistema de manera
natural, como ocurriría con el sistema real. Un modelo matemático, en
cambio, representa el sistema a estudiar por medio de relaciones matemáticas, por lo que al experimentar con el mismo se puede pronosticar el
comportamiento de las variables relevantes del sistema e intuir el comportamiento del sistema, aunque no se puede reproducir f ísicamente.
Uno de los propósitos de un modelo matemático es el de predecir el
comportamiento de una o de varias características del sistema, usualmente
conocidas como variables de respuesta, en función de ciertas variables, a
menudo llamadas variables de control. Es por esto que un modelo matemático en el que a través de un conjunto de ecuaciones se expresan las variables de respuesta en función (explícita) de las variables de control es muy
cómodo para predecir el comportamiento de un sistema. Se dice que el
modelo tiene solución analítica cuando existe este conjunto de ecuaciones.
Sin embargo, cuando se desea estudiar un sistema con mucho detalle,
se deben considerar variables cuyas relaciones no son fáciles de resolver
como para encontrar una solución analítica del modelo matemático. No
obstante, el modelo aún puede ser útil para analizar el sistema, ya que para
este propósito se han desarrollado métodos numéricos que, dados valores
particulares de las variables de control, permiten calcular, por medio de
una computadora, el valor de las variables de respuesta.
Dentro de los métodos numéricos que se utilizan para estudiar un sistema (véase figura 15.1), la simulación tiene la característica fundamental
Estudio de un sistema
Experimentación real
Experimentación con modelo matemático
Métodos
numéricos
Sistema real
Modelo físico
• Modelo a escala
• Prototipo
FIGURA 15.1 La simulación
como herramienta para el
estudio de sistemas
Simulación de
sistemas
Métodos
analíticos
Otros métodos
numéricos
15.1 Introducción
417
de que el modelo que se utiliza trata de imitar el comportamiento del sistema en estudio, con el objetivo de calcular, con la ayuda de la computadora,
el valor de las variables de respuesta del sistema. Por lo mismo, algunos
experimentos se pueden animar, es decir, de acuerdo con los resultados
que va arrojando el modelo se puede mostrar la evolución del sistema en el
tiempo a través de una interfaz gráfica (véase figura 15.2). Por lo tanto, podemos imaginar que un experimento por simulación se puede convertir en
un experimento virtual con muchas ventajas sobre la experimentación real,
entre las que se pueden mencionar:
•
•
•
•
Se puede simular el comportamiento de un sistema sin afectarlo,
por lo que es menos costoso que la experimentación real.
El costo relevante en la experimentación por simulación es el de
desarrollo y validación del modelo, y se pueden simular muchos
experimentos con costos adicionales relativamente bajos.
Se puede simular el comportamiento de sistemas que no existen,
por lo que la simulación es una herramienta muy útil para el diseño
de prototipos y/o nuevos sistemas.
La experimentación real puede entorpecer la operación normal del
sistema, y en el caso de los sistemas en los que interaccionan personas, se sabe que éstas pueden cambiar su comportamiento normal al sentirse observadas.
Como se muestra en la figura 15.1, actualmente en muchas industrias
(por ejemplo, la automotriz), los pasos que se siguen en la práctica para
desarrollar nuevos diseños son: experimentar con modelos de simulación,
experimentar con modelos f ísicos y, finalmente, desarrollar el nuevo diseño. Existen muchas herramientas disponibles para generar experimentos
por simulación, desde hojas de cálculo (Excel) hasta simuladores de alto
nivel (véase Kelton et al., 2011) con ambientes para la animación y para la
programación con elementos gráficos, que dependen del tipo de sistema
que se desea simular. En este capítulo se presenta una visión general de la
simulación de sistemas y de las herramientas disponibles para desarrollar
experimentos por simulación. En esta sección introductoria se hace una
pequeña revisión de la evolución histórica de las herramientas para simular
y se mencionan los principales modelos utilizados en simulación; posteriormente, en las siguientes secciones se presentan los principios fundamentales para desarrollar y analizar experimentos por simulación, finalmente, se desarrollan ejemplos utilizando hojas de cálculo.
Evolución de las herramientas para simular. Como se mencionó, la simulación de sistemas requiere del uso de la computadora. Sus inicios datan de
la década de 1950, cuando se implantan en computadora los primeros métodos numéricos para resolver problemas de cálculo integral. Las primeras
aplicaciones de la simulación, durante la década de 1960, se desarrollaron,
fundamentalmente, en centros de investigación por personal altamente es-
418
Capítulo 15
Simulación de sistemas
pecializado y, por lo general, utilizando el lenguaje FORTRAN en computadoras relativamente caras y voluminosas. En las décadas de 1970 y 1980,
se reconoce el potencial de la simulación como herramienta de análisis de
sistemas, se desarrollan los lenguajes para simulación y se distinguen los
principales modelos usados en simulación.
Como una primera clasificación de los modelos de simulación, se puede distinguir entre los modelos estáticos y los modelos dinámicos, cuya diferencia fundamental es que en los modelos estáticos no aparece el tiempo
como una variable del modelo o, dicho de otra forma, un modelo estático
se usa para estudiar un sistema en un instante particular, mientras que con
un modelo dinámico se estudia la evolución de un sistema en el tiempo.
Entre los modelos estáticos más importantes están los que aplican el método del elemento finito (véase, por ejemplo, Logan, 2012) para evaluar numéricamente sistemas cuyas variables obedecen a ecuaciones diferenciales
parciales. Algunas aplicaciones del método del elemento finito se presentan en el análisis estructural de los diseños (cargas estáticas, esfuerzos y
deformaciones). Entre los lenguajes más conocidos para aplicar el método
del elemento finito están: ALGOR, ANSYS, IMAGES-3D, MSC/NASTRAN y STARDINE.
Los modelos dinámicos más usados en simulación son el de dinámica
de sistemas (traducción del término en inglés system dynamics) y el de
evento discreto (traducción del término en inglés discrete event). En la simulación de dinámica de sistemas se modela el cambio de las variables en
el tiempo por medio de ecuaciones diferenciales ordinarias, es por esto que
los métodos numéricos que se aplican son de integración numérica (véase,
por ejemplo, Logan, 2012). Entre los lenguajes más conocidos para este tipo de simulación están DYNAMO y CSSL. La simulación de dinámica de
sistemas también se conoce con el nombre de simulación continua (traducción del término en inglés continuous simulation).
En la simulación de evento discreto se modelan sistemas cuyas variables de estado no cambian continuamente en el tiempo; para ser más precisos, el estado del sistema sólo cambia en instantes espaciados del tiempo
y debido a la ocurrencia de algún evento. Por ejemplo, el inventario de productos en un almacén sólo cambia cuando llega un envío de productos (aumenta), o bien cuando se hace una entrega (disminuye), por lo que la simulación natural de los inventarios en un almacén corresponde a la simulación
de evento discreto. La simulación de evento discreto ha encontrado aplicaciones importantes en la administración de operaciones de las empresas,
ya que se utiliza para analizar políticas de inventarios, programación de
tareas, desempeño de cadenas de suministro, políticas para programación
de vehículos y, en general, para evaluar el desempeño de diferentes políticas para administrar sistemas de producción y distribución de manufacturas y servicios. Entre los lenguajes de simulación de evento discreto más
conocidos se pueden mencionar: SIMAN, GPSS, SIMSCRIPT y SLAM.
15.2 Simulación estocástica de evento discreto
419
FIGURA 15.2 Animación de la simulación de una laminadora usando el software Simio
Los lenguajes de simulación facilitaron la aplicación de la simulación
como herramienta de diseño, pero todavía tienen el inconveniente que su
uso requiere de cierta inversión de tiempo en aprendizaje. Por lo mismo, en
la década de 1990 se aprovechan las ventajas de las computadoras personales y de los sistemas operativos basados en ventanas, para que los lenguajes
de simulación se introduzcan en paquetes con ambientes de graficación e
interactivos que faciliten el desarrollo de los modelos de simulación, y que
permitan la animación de los mismos. En ciertas aplicaciones, como en los
paquetes CATIA y UNIGRAPHICS para CAD/CAM, se introducen simuladores de ecuaciones diferenciales en módulos que permiten analizar las
características de los diseños desarrollados en el ambiente de diseño CAD.
En otras aplicaciones, como es el caso de los paquetes SIMIO, ARENA,
PROMODEL, WITNESS o QUEST, entre otros, la aplicación permite el
desarrollo y el análisis de los modelos de simulación de evento discreto,
donde los antiguos comandos de los lenguajes de programación se presentan como módulos que se pueden integrar en un ambiente de programación gráfica, lo cual permite la integración de elementos para la animación
de los modelos de simulación (véase figura 15.2). Actualmente se han desarrollado lenguajes y paquetes que integran diferentes modelos de simulación (continua y de evento discreto). En un futuro cercano, a medida que
se facilite la comunicación de diferentes sistemas operativos, se espera
que los simuladores se integren en aplicaciones especializadas por sector
industrial, o por grupos de empresas, que permitan su uso de manera fácil
y natural para solucionar problemas de diseño o de programación y control
de actividades en tiempo real, por poner un ejemplo.
15.2 Simulación estocástica de evento discreto
Modelos estocásticos. Una característica de muchas de las herramientas
disponibles para desarrollar experimentos por simulación es que permiten
420
Capítulo 15
Simulación de sistemas
modelar la incertidumbre que puede existir sobre algunas de las características del sistema en estudio, lo cual resulta muy conveniente para modelar
sistemas, ya que la incertidumbre está presente en muchas situaciones de la
vida real. Así, por ejemplo, si deseamos estudiar la atención de los clientes
en una central telefónica, sería poco realista suponer que conocemos con
precisión en qué instantes ocurrirán las llamadas de los clientes; por lo que
sería conveniente que el modelo de simulación genere las ocurrencias siguiendo algún patrón que incorpore la incertidumbre sobre estas ocurrencias. Como se analiza en el Apéndice, la incertidumbre puede cuantificarse
e incorporarse en un modelo utilizando el concepto de probabilidad. En
particular, se pueden modelar las llamadas de los clientes a la central telefónica suponiendo que el tiempo entre llamadas sucesivas es una variable
aleatoria que sigue alguna distribución de las que se mencionan en la tabla
A.3 del Apéndice, por ejemplo, suponiendo que siguen una distribución
exponencial con promedio de cinco minutos entre llamadas. Los elementos
de un modelo de simulación que se generan por medio de alguna distribución de probabilidades son llamados componentes aleatorios del modelo;
un modelo que tiene componentes aleatorios se denomina estocástico.
Como es de esperarse, para simular modelos estocásticos se debe disponer
de mecanismos que permitan generar (simular) por computadora muestras (observaciones) de las distribuciones de probabilidad que se incorporen en el modelo.
El desarrollo y el análisis de experimentos por simulación basados en
modelos estocásticos permiten analizar los sistemas de manera más congruente con la realidad, aunque exigen cierto cuidado, tanto para modelar
los componentes aleatorios del modelo como para analizar la salida de los
experimentos por simulación, ya que se debe tener en cuenta que debido a
que el modelo tiene componentes aleatorios, el resultado de una corrida
particular del modelo también es aleatorio. Por lo tanto, no se pueden hacer conclusiones en función de una única repetición (corrida) del experimento, más bien, se debe repetir el experimento para extraer conclusiones
estadísticamente significativas. Es conveniente mencionar que cuando se
analizan experimentos reales, tampoco se pueden tomar conclusiones en
función de una sola observación del fenómeno, ya que por más control que
se tenga sobre todas las variables del experimento, frecuentemente existe
variabilidad en los resultados de una observación a otra, es por esto que la
experimentación con modelos estocásticos también se parece a (“simula”)
lo que ocurre con experimentos reales.
Como se muestra en la figura 15.3, existen cuatro pasos fundamentales
para estudiar un sistema utilizando simulación estocástica:
Análisis de la entrada: consiste en determinar los componentes del
modelo y los parámetros del mismo. En este paso se establece qué componentes son deterministas (no se tiene incertidumbre) y cuáles son aleato-
15.2 Simulación estocástica de evento discreto
421
Análisis de la entrada
Desarrollo del modelo
FIGURA 15.3 Pasos para estudiar un sistema por medio
de simulación estocástica
Experimentación
con el modelo
Análisis de la salida
rios; además, en este último caso se deben especificar las distribuciones de
probabilidad —y los parámetros a considerar—, lo cual se logra considerando datos provenientes del sistema real, de modelos de pronóstico e, incluso, de información subjetiva (ante la ausencia de datos).
Desarrollo del modelo: consiste en implantar en la computadora el modelo básico de simulación que representa el sistema que se desea analizar.
En este paso, luego de seleccionar las herramientas que se utilizan para
desarrollar el modelo, se realizan pruebas de verificación y de consistencia,
tanto para comprobar que no se hayan cometido errores de programación
como para comprobar que el modelo de simulación desarrollado puede,
efectivamente, reproducir las características del sistema real (para una explicación más detallada, véase Kelton et al., 2011).
Experimentación con el modelo: consiste en diseñar y producir las corridas experimentales que permitirán extraer las conclusiones relacionadas
con el estudio que se desea hacer del sistema real. Por ejemplo, cuando se
estudia un nuevo diseño, por lo general se desea establecer qué valores de
los parámetros de diseño son los más convenientes.
Análisis de la salida: consiste en analizar la información obtenida de la
experimentación con el modelo para establecer conclusiones estadísticamente válidas sobre el sistema en estudio. En este paso se debe tener cuidado de aplicar las técnicas estadísticas apropiadas.
A continuación se presenta una pequeña introducción de las técnicas
usadas para la generación de variables aleatorias, el análisis de entrada y el
análisis de salida, que a menudo se utilizan en la simulación estocástica de
evento discreto, es decir, en la experimentación con modelos de simulación
de evento discreto que tienen componentes aleatorios de entrada.
Generación de variables aleatorias. Para simular modelos estocásticos es
necesario disponer de metodologías que permitan generar (por computadora) secuencias de valores provenientes de la distribución de probabilidades deseada. Por ejemplo, si modelamos el tiempo entre llegadas de los
clientes a un banco como exponencial con promedio de 10 minutos, debe-
422
Capítulo 15
Simulación de sistemas
mos desarrollar procedimientos que permitan que la computadora pueda
generar valores (tiempos entre llegadas) X1, X2, …, Xn que puedan considerarse como una muestra de observaciones provenientes de una distribución exponencial con promedio de 10 minutos. Intuitivamente, podemos
pensar que tenemos un buen procedimiento para generar una distribución
exponencial si, después de generar un conjunto de observaciones, al agrupar los datos y construir un histograma de frecuencias (véase Apéndice) se
obtiene una forma muy parecida a la función de densidad de la distribución
exponencial. Por ejemplo, en la figura 15.4 se muestran el histograma de
frecuencias (con 20 intervalos de clase), obtenido al generar una muestra
de 100 000 observaciones utilizando el procedimiento implantado en el archivo Exponencial.xls (véase la página web de este libro), y la gráfica de la
función de densidad de la distribución exponencial. Como se puede observar, ambas gráficas tienen una forma muy parecida, lo que sugiere que el
generador implantado en dicho archivo tiene buenas propiedades. Se sugiere que el lector experimente generando sus propias muestras desde el
archivo Exponencial.xls.
El procedimiento que se utiliza en el archivo Exponencial.xls para generar muestras de variables exponenciales se obtuvo al aplicar una técnica
muy conocida (método de la transformación inversa) que explicaremos
más adelante. En este momento es conveniente mencionar que los procedimientos que se utilizan para generar cualquier variable aleatoria se construyen a partir de un generador de variables uniformes (véase Apéndice)
entre 0 y 1, mejor conocidas como números aleatorios, por lo que, en primer lugar, comentaremos sobre la generación de números aleatorios.
Casi cualquier calculadora de bolsillo tiene alguna tecla que, al presionarla, produce un número entre 0 y 1, al cual se le considera un número
aleatorio. Desde una hoja de cálculo de Excel también se pueden producir
números aleatorios, basta con introducir en una celda la expresión:
=ALEATORIO()
Histogramas de frecuencias
Frecuencias
Función de densidad
Clases
10
FIGURA 15.4 Histograma de una muestra y función de densidad de una variable exponencial
20
30
40
x
50
60
15.2 Simulación estocástica de evento discreto
423
Public Function RanLL(ix As Long) As Double
Dim k1 As Long
' Genera una variable uniforme RanLL entre 0 y 1 con semilla ix
k1 = ix / 127773
ix = 16807# * (ix - k1 * 127773#) - k1 * 2836
If (ix < 0) Then
ix = ix + 2147483647
End If
RanLL = ix * 4.65661287E-10
End Function
FIGURA 15.5 Código en VBA del generador de Lewis, Goodman y Miller
Esto nos permite apreciar que tanto Excel como las calculadoras de
bolsillo tienen implantados procedimientos para generar números aleatorios. En el archivo Uniforme.xls (véase la página web de este libro) también
se ha implantado un generador de números aleatorios, cuyo código está
escrito en Visual Basic for Applications (VBA), el cual está en la función
RanLL, escrita en el módulo Generadores (se puede consultar el código de
las macros de un libro de Excel activando la cinta Programador y presionando el botón Visual Basic de la cinta Programador). El generador implantado en el archivo Uniforme.xls se atribuye a Lewis, Goodman y Miller
(1969), y lo utilizaremos para ilustrar cómo funciona un típico generador
de números aleatorios.
En la figura 15.5 se presenta el código (en VBA) de la función RanLL
que, como puede observarse, tiene un argumento de entrada (la variable
long ix). El argumento de entrada ix debe ser un entero entre 1 y 231 1 2147483647 y se conoce con el nombre de semilla. Si denotamos a la semilla por Xn, se puede verificar (véase ejercicio 15.1) que la función RanLL
calcula el residuo (r) de la división Xn1/(231 1), donde Xn1 16807Xn,
devuelve el valor RanLL r/(231 1) y hace ix igual a r. De esta forma, si
se llama recursivamente a la función RanLL(ix), devolverá valores diferentes, ya que cada vez se cambia el valor de la semilla ix.
En la figura 15.6 se muestra el histograma (con 20 intervalos) de una
muestra de 10 000 números aleatorios (uniformes entre 0 y 1) generados
desde el archivo Uniforme.xls. Como se puede observar, las frecuencias de
cada intervalo son muy parecidas. Si el lector trata de generar sus propias
muestras, encontrará que en la hoja del archivo Uniforme.xls debe ingresarse un número entero que se identifica con el nombre de Cadena. Este
número se utiliza para seleccionar como semilla inicial alguna de las que se
han cargado desde el módulo llamado Semillas, ya que en dicho módulo
existen 1001 semillas espaciadas 100 000 lugares cada una. Es decir, si se
genera una cadena de números aleatorios a partir de cualquiera de las semillas, el número 100 000 de la cadena será idéntico al primer número de la
cadena de la siguiente semilla, lo que asegura que dos cadenas de números
aleatorios generadas con diferentes semillas del módulo Semillas tienen di-
424
Capítulo 15
Simulación de sistemas
Frecuencias
0.06
Histograma de frecuencias
0.05
0.04
0.03
0.02
FIGURA 15.6 Histograma de una muestra de 10 000 números aleatorios
0.01
0.95
0.9
0.85
0.8
0.75
0.7
0.65
0.6
0.55
0.5
0.45
0.4
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0
0
Marcas de clase
FIGURA 15.6 Histograma de una muestra de 10 000 números aleatorios
ferentes números aleatorios, siempre y cuando las cadenas tengan menos
de 100 000 elementos. Disponer de semillas espaciadas es útil para probar
las propiedades (e. g., independencia) de los números aleatorios generados
con diferentes semillas.
Las muestras de variables aleatorias que no se distribuyen uniformemente entre 0 y 1 se pueden producir a partir de un generador de números
aleatorios. Aunque existen muchas técnicas válidas para lograrlo (véase,
por ejemplo, Banks et al., 2010), a continuación presentamos el método de
la transformación inversa, que es el más popular por su facilidad de aplicación.
El método de la transformación inversa se aplica a partir de la función
de distribución acumulada (FDA) de la variable aleatoria X que se desea
generar. A partir de la FDA, dada por F(x) P[X x], se puede obtener la
función inversa definida por:
F 1(u) min{x: F(x)
u}
Es decir, F 1(u) es el valor más pequeño (de x) que cumple F(x) u.
Cabe notar que como F(x) es una probabilidad, su valor está entre 0 y 1, por
lo que F 1(u) está bien definida cuando 0 u 1 (que es cierto si u es un
número aleatorio). Por otro lado, cuando existe una solución única (para x)
de la ecuación u F(x), entonces F 1(u) x, por lo que, para variables
aleatorias continuas, a menudo se puede obtener la función inversa despejando X de la ecuación U F(X). No obstante, la definición de la función
inversa como F 1(u) min{x: F(x)
u} es necesaria para considerar el
caso en que no existe (o existe más de una) x. tal que u F(x) (que ocurre
cuando la variable aleatoria es discreta). Utilizando esta notación, el méto-
425
15.2 Simulación estocástica de evento discreto
FDA F(x)
1
U
0.8
0.6
0.4
0.2
FIGURA 15.7 Método de la
transformación inversa en una
gráfica
0
10 X
20
30
40
50
60
do de la transformación inversa para generar una variable aleatoria X se
define con el siguiente algoritmo.
Algoritmo 15.1
1. Generar un número aleatorio U.
2. Devolver el valor de X F 1(U).
Como se muestra en la figura 15.7, el método de la transformación inversa
se puede describir gráficamente. Si se dispone de una gráfica de la FDA,
dada por y F(x), el método consiste en ubicar el número aleatorio u en el
eje vertical y devolver el valor correspondiente a x en el eje horizontal. En
la figura 15.8 (más adelante) se muestra una representación gráfica del método de la transformación inversa cuando la variable aleatoria es discreta.
Ejemplo 15.1 Generación de variables exponenciales
Como se menciona en el Apéndice, una variable exponencial con promedio b 0 tiene la FDA definida por F(x) 1 ex/b para X 0. Como se
trata de una función continua en todos sus puntos, basta con resolver la
ecuación U 1 ex/b para obtener la función inversa dada por:
X b log (1 U)
donde log (X) denota al logaritmo natural del número X. En consecuencia,
el siguiente algoritmo permite generar una variable exponencial con promedio b.
Algoritmo 15.2
1. Generar un número aleatorio U.
2. Devolver el valor de X b log (1 U).
426
Capítulo 15
Simulación de sistemas
Sin embargo, a partir de este algoritmo se puede encontrar un algoritmo
mejor. Teniendo en cuenta que si U se distribuye uniformemente entre 0
y 1, entonces 1 U también se distribuye uniformemente entre 0 y 1 (véase ejercicio 15.3); por lo tanto, se puede remplazar 1 U por U en el algoritmo 15.2 para obtener el siguiente algoritmo, igualmente válido, para generar una variable exponencial con promedio b.
Algoritmo 15.3
1. Generar un número aleatorio U.
2. Devolver el valor de X b log (1 U).
Este ejemplo muestra que pueden existir diferentes maneras (igualmente
válidas) de generar una variable aleatoria; sin embargo, es conveniente usar
el método que realice menos operaciones, ya que en una simulación típica
se debe llamar muchas veces al mismo generador. Usted puede comprobar
que el algoritmo 15.3 es el que está implantado en el archivo Exponencial.
xls (véase la función Expo del módulo Generadores), debido a que se utiliza
una resta menos que en el algoritmo 15.2. Haciendo uso de este algoritmo
se puede generar fácilmente una variable aleatoria exponencial con promedio b en una hoja de Excel. Por ejemplo, si el valor de b se encuentra en la
celda B1, basta con escribir en otra celda la fórmula:
= -B1*LOG(ALEATORIO())
Ejemplo 15.2 Generación de variables discretas en Excel
La empresa de confecciones A&M desea lanzar una línea de trajes de baño
para este verano. Con el objetivo de pronosticar su demanda, que se estima
entre 10 000 y 30 000 unidades, A&M planteó cinco escenarios de demanda
(véase tabla 15.1), y un panel de expertos en ventas se encargó de asignar
las probabilidades que se muestran en la tabla 15.1.
Tabla 15.1 Probabilidades de la demanda de A&M
Demanda
Probabilidad
10 000
0.3
15 000
0.2
20 000
0.3
25 000
0.15
30 000
0.05
427
15.2 Simulación estocástica de evento discreto
Tabla 15.2 Datos de la demanda de A&M en una hoja de Excel
Con la finalidad de simular los diferentes escenarios en una hoja Excel,
se aplicó el método de la transformación inversa de la siguiente manera. En
primer lugar, se introdujeron los datos de la demanda de A&M en una hoja
Excel (véase archivo ConfeccionesA&M.xls en la página web de este libro) y
se calcularon las probabilidades acumuladas, como se muestra en la tabla
15.2.
Utilizando los conceptos del Apéndice (véase ejemplo A.3) se dedujo
que la FDA de la demanda (X) de trajes de baño está dada por:
F (x) =
0,
x < 10 000
0.3,
10 000 ≤ x < 15 000
0.5,
15 000 ≤ x < 20 000
0.8,
20 000 ≤ x < 25 000
0.95,
25 000 ≤ x < 30 000
1,
x ≥ 30 000
En la figura 15.8 se grafica la FDA de la demanda de A&M, donde se
puede apreciar que, al aplicar el método de la transformación inversa, si el
número aleatorio generado U está entre 0 y 0.3, se devuelve el valor
Regresar X = 20 000
1
0.95
F(x) = P[X
0.05
x]
0.15
0.8
U
0.3
0.5
0.2
0.3
0.3
0
10 000 15 000 20 000 25 000
FIGURA 15.8 Transformación inversa para generar la demanda de A&M
30 000
428
Capítulo 15
Simulación de sistemas
X 10 000; si, en cambio, 0.3 < U 0.5, se devuelve el valor X 15 000, y
así sucesivamente, por lo que el valor de X a devolver, en función del valor
de U, está dado por:
10 000,
0 < U ≤ 0.3
15 000,
0.3 < U ≤ 0.5
X = F (U ) = 20 000,
0.5 < U ≤ 0.8
−1
25 000,
0.8 < U ≤ 0.95
30 000,
0.95 < U ≤ 1
Observe que el intervalo de valores de U que corresponde a cada valor
de X es consistente con su respectiva probabilidad. Así, por ejemplo, el intervalo de valores correspondiente a X 15 000 es 0.3 < U 0.5 y tiene
probabilidad 0.5 0.3 0.2, como se deseaba. El método de la transformación inversa para generar variables discretas se puede implantar en una
hoja de Excel haciendo uso de la función BUSCAR; para tal efecto, deben
calcularse las probabilidades acumuladas en la hoja de Excel (como se
muestra en la tabla 15.2). La función BUSCAR requiere de tres argumentos: el valor a buscar, un vector de valores donde buscar y un vector de valores a devolver. Excel empieza a buscar a partir del primer componente del
vector de valores donde buscar, y si encuentra que el valor a buscar es mayor o igual que dicho componente y menor que el siguiente, devuelve el
valor correspondiente del vector de valores a devolver; de otra forma, avanza su búsqueda al siguiente componente. Así, por ejemplo, para generar las
demandas de A&M con los datos de una hoja de Excel, como en la tabla
15.2, suponiendo que en la celda C16 se genera un número aleatorio, basta
con escribir la fórmula:
=BUSCAR(C16,$C$3:$C$7,$A$4:$A$8)
en la celda deseada, y así generar (aleatoriamente) un valor de la demanda
de A&M (para una mejor comprensión, consulte la primera hoja del archivo ConfeccionesA&M.xls). Cabe resaltar que el primer elemento del vector
de valores a buscar debe ser 0, y el primer elemento del vector de valores a
devolver debe ser el primer valor de la variable aleatoria X a generar.
Como podemos intuir, el procedimiento descrito para A&M se puede
generalizar para cualquier variable aleatoria discreta. En particular, si una
variable aleatoria discreta puede tomar valores x0 x1 x2 …, denotando
p1 P[X xk] con k 0, 1, 2, …, un algoritmo válido para generar muestras
de X sería:
Algoritmo 15.4
1. Generar un número aleatorio U.
2. Hacer k 0 y p p0.
15.2 Simulación estocástica de evento discreto
429
Tabla 15.3 Algunas funciones de Excel para generar variables aleatorias
Distribución de la variable aleatoria
Función en Excel
Beta
DIST.BETA.INV
Normal
DIST.NORM.INV
Gamma
DIST.GAMMA.INV
Lognormal
DIST.LOG.INV
3. Si U p, devolver el valor de X k; de otra forma, ir al paso 4.
4. Hacer k k 1 y p p pk , volver al paso 3.
Es conveniente recordar que el paso 1 del algoritmo 15.4 se puede implantar en Excel con la función ALEATORIO, y que los pasos 2 a 4 se
implantan automáticamente con la función BUSCAR de Excel.
Por último, debemos mencionar que Excel tiene funciones incorporadas que permiten generar variables aleatorias utilizando el método de la
transformación inversa, algunas de las cuales se presentan en la tabla 15.3.
Todas estas funciones tienen un argumento denominado Probabilidad, en
el que, para generar la variable aleatoria deseada, debe ingresarse el valor
de un número aleatorio, además de proporcionar los otros parámetros propios de la distribución correspondiente.
Análisis de la salida de experimentos por simulación estocástica. Como
ya se mencionó, los resultados de un experimento por simulación estocástica son aleatorios debido a que sus componentes también son aleatorios.
Por lo tanto, no se pueden obtener conclusiones con una sola repetición
(corrida) del experimento y los resultados de los experimentos deben analizarse aplicando técnicas estadísticas. A continuación se explica cómo se
puede cuantificar y analizar correctamente la incertidumbre inherente a la
experimentación con modelos de simulación estocástica. Para esto, primero se introduce un ejemplo que sirve para ilustrar las propiedades más importantes de la simulación estocástica.
Ejemplo 15.3 Un modelo con solución analítica
La empresa de confecciones A&M del ejemplo 15.2 debe decidir cuántos
trajes de baño producir para venderlos en la temporada de verano, teniendo en cuenta que su costo de producción es de $30, su precio de venta
(mayorista) es de $50 y que las prendas que no se vendan en la temporada
de verano serán rematadas al precio de $10. Aunque el problema de encontrar un tamaño de pedido adecuado para A&M se puede atacar con métodos analíticos (como se verá en el ejemplo 15.4), se utilizará este problema
430
Capítulo 15
Simulación de sistemas
TABLA 15.4 Costos, precios y tamaño del pedido de A&M
para ilustrar las propiedades de la experimentación por simulación y para
introducirnos a la simulación estocástica utilizando una hoja de cálculo.
En la primera hoja (de nombre A&MHoja) del archivo ConfeccionesA&M.
xls se simula el beneficio de A&M dependiendo de la cantidad de trajes
de baño que decide producir. Los pasos seguidos para construir el modelo de simulación fueron los siguientes:
1. Se ingresaron en la hoja de Excel los datos de costo, precio, valor de
rescate y tamaño del pedido en las celdas que se indican en la tabla
15.4.
2. Se construyó la primera repetición del experimento por simulación (en la fila 16 de la hoja) de la siguiente manera:
Se generó un número aleatorio en la celda C16 introduciendo:
=ALEATORIO()
Se generó la demanda en la celda D16 utilizando la función
BUSCAR (como se explica en el ejemplo 15.2), escribiendo:
=BUSCAR(C16,$C$3:$C$7,$A$4:$A$8)
Observando que el volumen de ventas será el valor más pequeño entre el tamaño del pedido y la demanda, se generó el ingreso de ventas en la celda E16:
=$C$11*MIN(D16,$C$13)
Se calculó el costo de las prendas ordenadas a partir del tamaño del pedido y del costo unitario en la celda F16:
=$C$10*$C$13
Considerando que sólo se rematan prendas si el tamaño del
pedido excede a la demanda, se calculó el valor de rescate de
las prendas rematadas en la celda G16:
=$C$12*MAX($C$13-D16,0)
15.2 Simulación estocástica de evento discreto
431
Por último, se calculó el beneficio (en la celda H16) en función
de los cálculos anteriores:
=E16+G16-F16
3. Para generar 1000 repeticiones del experimento por simulación, se
copió la fila 16 y se pegó hasta la fila 1015. Cabe notar que para
realizar correctamente esta operación, se fijaron las celdas necesarias (usando $$) en el paso 2.
4. Se calcularon las estadísticas del experimento por simulación considerando las 1000 observaciones simuladas del beneficio:
Se calculó el promedio de los beneficios simulados en la celda
G11:
=PROMEDIO(H16:H1015)
Se calculó la desviación estándar de los beneficios simulados
en la celda G12:
=DESVEST(H16:H1015)
De acuerdo con la confianza (celda E13) y el número de repeticiones (celda G13), se calculó el ancho medio del intervalo de
confianza (que explicaremos más adelante):
=DISTR.NORM.ESTAND.INV(1-(1-E13)/2)*G12/RAIZ(G13)
Por último, se calcularon el límite inferior (celda I11) y el límite superior (celda I12) del intervalo de confianza como el promedio menos el ancho medio y el promedio más el ancho medio, respectivamente.
Para explicar la interpretación de las estadísticas de la simulación
calculadas en el paso 4 del ejemplo anterior, es conveniente introducir cierta notación. En primer lugar, debemos explicar que en una simulación estocástica a menudo estamos interesados en estudiar una variable de desempeño que denotaremos por Y. Así, en el ejemplo 15.3 la variable de interés
Y es el beneficio obtenido en la temporada. Cabe resaltar que Y es una variable aleatoria debido a que la simulación tiene componentes aleatorios,
pero para evitar la incertidumbre en Y, la toma de decisiones sobre el mejor
tamaño de pedido puede basarse en un parámetro de Y. Por ejemplo, el
criterio más usado para tomar decisiones es la esperanza my E[Y ]; de esta
manera, my es una medida de desempeño del sistema y puede ser utilizada
para tomar decisiones sobre los mejores parámetros de diseño.
Cuando repetimos el experimento n veces (n 1000 en el ejemplo), se
obtiene una muestra aleatoria Y1, Y2,…, Yn de la variable aleatoria Y. Uno
de los principios más importantes de la simulación estocástica es que, de
432
Capítulo 15
Simulación de sistemas
acuerdo con la Ley de los grandes números (propiedad A.17), a medida que
el tamaño de la muestra n se hace más grande, el promedio de la muestra
–
Y (n) tiende a la medida de desempeño my que nos interesa evaluar. Más
aún, para saber si el tamaño de la muestra es lo suficientemente “grande”, se
pueden calcular la desviación estándar S de la muestra y el intervalo de
confianza (véase definición A.20) para la medida de desempeño my, para lo
cual se fija un nivel de confianza (1 a) y se calcula el ancho medio:
A=
z1 − α/2 S
n
–
El límite inferior del intervalo es Y (n) A y el límite superior es
Y(n) A (como se calculó en el ejemplo 15.3). La interpretación de estos
cálculos es que la medida de desempeño my se encuentra entre el límite in–
–
ferior, Y (n) A, y el límite superior, Y (n) A, con el nivel de confianza
(1 a)(100)% (véase ejemplos A.6 y A.7 del Apéndice). Cabe notar que el
valor de Z1a/2 se puede obtener con la función DIST.NORM.INV de Excel
(a partir de la confianza), como se indicó en el paso 4 del ejemplo anterior.
Observe que el ancho medio disminuye al incrementar el tamaño de la
–
muestra, lo que indica que nuestra estimación Y (n) de my se hace más precisa a medida que se incrementa el número de repeticiones del experimento por simulación.
Ejemplo 15.4 Experimentación por simulación y solución analítica
Con el objetivo de ilustrar la Ley de los grandes números en un experimento por simulación, a continuación se indica cómo calcular el beneficio esperado my de A&M en una hoja de cálculo sin la necesidad de recurrir a la
simulación. Cabe resaltar que en este caso es posible encontrar el valor de
la medida de desempeño analíticamente porque el modelo es relativamente
sencillo, pero en muchos casos no es fácil (o simplemente no se puede)
encontrar una solución analítica y, justamente en esos casos, la simulación
se convierte en una poderosa herramienta de análisis.
Teniendo en cuenta que A&M asume que sólo hay cinco posibles escenarios (proporcionados en la tabla 15.1), se puede calcular el beneficio para
cada uno de estos escenarios, como se hizo en el ejemplo 15.3 para cada
valor posible. Los cálculos se resumen en la tabla 15.5 (véase la hoja
A&MHoja) y suponen los datos de la tabla 15.4, donde el tamaño del pedido es de 20 000 prendas.
De acuerdo con los datos de la tabla 15.5, si el tamaño del pedido fuera
de 20 000 prendas, el beneficio esperado de A&M sería de:
my 0.3(0) 0.2(200 000) ... 0.05(400 000) 240 000
Con el objetivo de facilitar la experimentación por simulación, en la
hoja A&MVBA del archivo ConfeccionesA&M.xls se automatizó la simu-
433
15.2 Simulación estocástica de evento discreto
Tabla 15.5 Cálculo del beneficio para los diferentes escenarios de A&M
Demanda
Probabilidad
Ingreso ventas
Costo pedido
Valor rescate
Beneficio
10 000
0.3
500 000
600 000
100 000
0
15 000
0.2
750 000
600 000
500 000
200 000
20 000
0.3
1 000 000
600 000
0
400 000
25 000
0.15
1 000 000
600 000
0
400 000
30 000
0.05
1 000 000
600 000
0
400 000
lación de la primera hoja utilizando VBA (el lector puede consultar el código en los módulos correspondientes). Haciendo uso de este procedimiento,
se corrieron algunos experimentos por simulación con diferentes tamaños
de muestra, cuyos resultados se resumen en la tabla 15.6. Como puede observarse en la tabla, al incrementar el número de repeticiones (y, en consecuencia, el tamaño de la muestra), el promedio se acerca más al valor del
parámetro my 240 000 (como lo establece la Ley de los grandes números).
Por otro lado, como era de esperarse, el ancho medio del intervalo de confianza se reduce cada vez más; sin embargo, los intervalos de confianza
cubren el valor del parámetro en los cuatro casos, confirmando la validez
de estos intervalos de confianza. Se sugiere que usted corra sus propios
experimentos con la hoja de cálculo para que verifique, por su propia cuenta, la validez de los resultados presentados en este ejemplo.
Por último, es conveniente no perder de vista el objetivo de A&M, que
es el de encontrar un tamaño de pedido apropiado. Usted puede verificar,
utilizando la primera hoja de cálculo, que con cualquier tamaño de pedido
entre 15 000 y 20 000 prendas, se obtiene el mismo beneficio esperado de
240 000. Esto indica que, bajo el criterio del valor esperado, cualquier pedido entre 15 000 y 20 000 prendas es igualmente bueno. Observe que en la
primera hoja, donde se calcula la solución analítica, también se calcula
la desviación estándar sY del beneficio. De ahí que se puede comprobar que
para un pedido de 15 000 se obtiene sY 91 651.51, mientras que para un
pedido de 20 000 se obtiene sy 174 355.96, lo que indica que con un peTabla 15.6 Resultados de simulaciones con diferentes repeticiones
Repeticiones
Promedio
Ancho medio
Límite inferior
Límite superior
100
236 000
35 404.51
200 595.49
271 404.51
500
229 600
15 399.27
214 200.73
244 999.27
1 000
240 200
10 716.16
229 483.84
250 916.16
10 000
240 080
3 421.62
236 658.38
243 501.62
434
Capítulo 15
Simulación de sistemas
dido de 20 000 se tiene un mayor riesgo. Es decir, con un pedido de 20 000
se pueden obtener beneficios más altos, pero también más bajos que con
15 000. Dado que, por lo general, es preferible tener menos riesgo, el pedido de 15 000 prendas es más conveniente para A&M. Esta última observación permite apreciar que si bien el criterio del valor esperado es el que más
se utiliza para tomar decisiones con modelos estocásticos, pueden existir
otras medidas de desempeño que merecen ser tomadas en cuenta, según
sea el caso.
Análisis de la entrada de experimentos por simulación estocástica. Un
aspecto importante en la construcción de modelos de simulación estocástica es la selección de las distribuciones de probabilidad apropiadas para
modelar los componentes aleatorios. Sin duda, la elección es más objetiva
cuando se basa en datos disponibles del sistema real, aunque en muchas
ocasiones no se dispone de los mismos. Cuando éste es el caso, lo más conveniente es seleccionar la distribución en función de las propiedades de la
misma (véase el Apéndice) y la poca información disponible. Por ejemplo,
si se pueden establecer únicamente los valores mínimo (a) y máximo (b) de
la variable aleatoria, se puede asumir que los valores intermedios son igualmente verosímiles para proponer una distribución uniforme entre a y b.
Por otro lado, si además se dispone del valor más verosímil (c), se puede
proponer una distribución triangular con parámetros a, c y b.
Cuando se dispone de un conjunto de observaciones X1, X2,…, Xn de la
variable aleatoria que se quiere modelar, la selección de una distribución
apropiada puede tener criterios más objetivos, partiendo de un modelo que
define a una familia de distribuciones que depende de ciertos parámetros.
En la tabla A.3 del Apéndice se presentan las principales familias de distribuciones que pueden considerarse. Como puede apreciarse en la tabla, cada familia tiene ciertos parámetros que permiten ajustar diferentes formas
y escalas dentro de sí misma (véase figuras A.3 a A.13 del Apéndice). Por lo
tanto, después de seleccionar una familia, el siguiente paso es seleccionar
los valores particulares de los parámetros que mejor se ajusten al conjunto
de observaciones disponibles. Para seleccionar una familia de distribuciones deben considerarse las características particulares de los datos. Por
ejemplo, si los datos son discretos (edades en años, demandas en unidades,
etc.), deben considerarse variables aleatorias discretas; en cambio, para
modelar datos continuos (tiempos de proceso, pesos, distancias, etc.) deben considerarse distribuciones continuas. En general, cuando exista duda
sobre qué familia de distribuciones es más apropiada, se puede optar por
considerar familias flexibles, es decir, familias que permitan ajustar formas
y escalas diferentes de acuerdo con el valor de sus parámetros. Por ejemplo,
una distribución gamma es muy flexible para ajustar datos positivos y no
acotados; por otro lado, una distribución beta puede ser muy útil para ajustar datos acotados entre un mínimo y un máximo.
435
15.2 Simulación estocástica de evento discreto
Si se propone una determinada familia de distribuciones como modelo
para explicar un conjunto de observaciones, deben ajustarse los valores de
los parámetros que mejor se ajusten a los datos. Dicho proceso puede ser
sencillo para algunas familias; por ejemplo, para las distribuciones Poisson
y exponencial basta con calcular el promedio de la muestra, mientras que
para la distribución normal sólo se necesita calcular, adicionalmente, la varianza muestral. Sin embargo, el ajuste de los parámetros de algunas distribuciones puede requerir el uso de métodos numéricos, para lo cual existe
software comercial desarrollado a propósito. Algunos paquetes como SAS,
ExperFit, BestFit o el Input Analyzer que viene con Arena, tienen procedimientos automáticos que ajustan los datos a diferentes familias y reportan
la familia que se acopla mejor a los datos.
Como se ilustra en el ejemplo 15.5, cuando los datos son continuos la
comparación de un histograma de frecuencias de los datos con un histograma derivado de la distribución propuesta puede darnos una idea de qué tan
bien se explican los datos con el modelo propuesto.
Ejemplo 15.5 Modelado de las llegadas a un cajero automático
LatinBanc desea modelar las llegadas de los clientes a uno de sus cajeros
automáticos. Para ello, se tomó registro del tiempo (en minutos) entre las
llegadas sucesivas de los clientes en un día de la semana. Los valores obtenidos de 100 observaciones se presentan en la tabla 15.7, y se considera que
una forma apropiada para modelar procesos de llegadas consiste en suponer que los tiempos entre llegadas consecutivas de clientes obedecen a
cierta distribución de probabilidades.
Debido a que los tiempos entre llegadas son positivos y continuos, se
decidió ajustar una distribución gamma que, como se menciona en el
Apéndice, depende de dos parámetros, a y b. Para ajustar el valor de los
parámetros a una muestra de observaciones, consideramos que la esperanza y la varianza de la distribución gamma son, respectivamente:
mX ab,
sX2 ab2
Tabla 15.7 Tiempos entre llegadas de clientes a un cajero automático
4.33
2.78
1.79
3.72
0.68
0.95
1.82
4.22
1.67
7.54
2.12
3.18
1.72
1.41
2.02
3.83
2.82
0.77
2.31
3.42
2.58
3.37
2.51
1.52
4.53
1.18
1.97
1.81
2.57
1.47
2.08
3.14
2.38
1.87
2.75
3.41
1.91
1.82
4.08
2.85
2.14
1.95
2.36
3.64
5.97
1.43
3.45
1.33
3.95
1.84
3.44
2.83
2.44
1.09
1.24
1.35
2.33
3.23
0.98
2.99
1.43
0.88
1.85
1.89
4.69
1.52
1.02
1.92
2.7
2.14
2.95
2.95
2.25
3.65
1.6
3.91
1.8
3.55
1.8
1.73
2.93
2.34
3.07
2.65
2.28
1.36
1.18
1.69
1.47
3.07
2.97
2.46
1.26
2.92
3.52
1.96
2.26
1.22
2.4
3.05
436
Capítulo 15
Simulación de sistemas
Despejando a y b de las ecuaciones anteriores, se tiene que:
a=
m X2
sX2
,
b
=
sX2
mX
–
Remplazando el promedio X (n) y la varianza S2 de la muestra por el
promedio mX y la varianza sX2 de la distribución original, se obtiene:
a=
X 2 (n)
S2
,
b
=
X (n)
S2
Dichas ecuaciones permiten ajustar los valores de a y b a los datos de
una muestra. Es conveniente mencionar que el método que se ha aplicado
para ajustar los parámetros de la distribución gamma se conoce con el
nombre de método de momentos, y aunque no se reconoce como el mejor
método para ajustar parámetros, es muy fácil de aplicar y tiene buenas propiedades (véase, por ejemplo, Wackerly, Mendenhall y Scheaffer, 2002).
En la primera hoja del archivo LatinBanc.xls (véase la página web de
este libro) se introdujeron los datos de la tabla 15.7 y se ajustaron los valores de a y b en función de las ecuaciones anteriores, encontrándose que los
valores a 4.83 y b 0.51 son adecuados para ajustar los datos de LatinBanc. Por otro lado, en la misma hoja se implementó un procedimiento en
VBA que construye la tabla de frecuencias para los datos y calcula las probabilidades teóricas de cada intervalo, suponiendo la distribución gamma
con los respectivos parámetros (cabe recordar que las probabilidades acumuladas de la distribución gamma las puede calcular Excel con la función
DISTR.GAMMA). Este procedimiento se acciona al presionar el botón de
comando que tiene el mensaje “Generar histograma”. El gráfico que se genera muestra tanto el histograma de los datos como el de las probabilidades
teóricas y el histograma combinado. Como se aprecia en la figura 15.9, los
histogramas de frecuencias empíricas y teóricas presentan formas muy parecidas, mientras que el histograma combinado muestra que no sólo las formas, sino también las magnitudes de las frecuencias, son muy parecidas,
confirmando que el modelo de una distribución gamma con parámetros
a 4.83 y b 0.51 es apropiado para explicar los datos de la tabla 15.7.
Cabe notar que se pueden aprovechar los procedimientos de la hoja AnEntrada para ajustar una distribución gamma a cualquier conjunto de datos,
para lo cual basta con introducir el tamaño de la muestra en la celda B1 y
los datos en las respectivas celdas de la segunda columna.
15.3 Simulación con Excel y VBA
Los ejemplos desarrollados en las secciones anteriores permiten apreciar
que se pueden generar modelos de simulación estocástica en hojas de
cálculo, ya sea utilizando sólo la hoja de cálculo y las funciones de Excel o
437
15.3 Simulación con Excel y VBA
Frecuencias empíricas
0.4
0.35
0.3
0.25
Frec. emp.
0.2
0.15
0.1
0.05
0
5.54875
9.83625
14.12375
18.41125
22 69875
26.98625
31.27375
35.56125
Marcas de clase
Frecuencias teóricas
0.4
0.35
0.3
0.25
Frec. teor.
0.2
0.15
0.1
0.05
0
5.54875
9.83625
14.12375
18.41125
22 69875
26.98625
31.27375
35.56125
Marcas de clase
Histograma combinado
0.4
0.35
0.3
0.25
Frec. emp.
0.2
Frec. teor.
0.15
0.1
0.05
0
5.54875
9.83625
14.12375
18.41125
22 69875
26.98625
Marcas de clase
FIGURA 15.9 Histogramas empírico, teórico y combinado para LatinBanc
31.27375
35.56125
438
Capítulo 15
Simulación de sistemas
macros escritos en VBA. Es conveniente mencionar que también existen
productos comerciales llamados Complementos (Add In en inglés), que al
incorporarse a Excel permiten al usuario utilizar generadores eficientes de
variables aleatorias, así como automatizar fácilmente la experimentación
por simulación. Esto permite, por ejemplo, realizar repeticiones automáticas a partir de la hoja de cálculo. Entre los complementos para simulación
en Excel más conocidos están Risk y Crystal Ball. Desde la página web del
autor de este capítulo (http://ciep.itam.mx/~davidm) también se pueden
descargar generadores de las principales variables aleatorias usadas en simulación, que se pueden llamar utilizando VBA desde una hoja de cálculo.
A continuación se presentan algunos otros ejemplos de experimentación
por simulación usando una hoja de cálculo, en los cuales ya no es tan evidente que exista una solución analítica, por lo que se justifica el uso de la
simulación. Por otra parte, para cada ejemplo se desarrollan, por lo menos,
dos hojas; en una se desarrolla el modelo en Excel sin la ayuda de macros, y
en la otra se utilizan macros para facilitar la experimentación. Cabe notar
que la utilización de macros también permite construir modelos más complejos. No obstante, si el modelo a simular es muy complejo, se aconseja
utilizar algún paquete comercial de simulación de evento discreto, como
SIMIO, ARENA, PROMODEL, WITNESS, QUEST o algún otro disponible en el mercado.
Ejemplo 15.6 Estrategia de propuesta para una licitación
ConMex está tratando de decidir el monto de su propuesta para la licitación de un proyecto de construcción. Se estima que la preparación de la
propuesta costará $3500, y que en caso de ganar la licitación la ejecución
del proyecto costaría $100 000. El proyecto se asignará a la propuesta de
menor costo y, en caso de empate, suponemos que ConMex se verá favorecida. ConMex estima que las propuestas de sus cuatro oponentes son
independientes y que cada una se distribuye como 90 000 100 000X,
donde X sigue una distribución beta con parámetros a 2 y b 3. En este
ejemplo:
1. Se desarrolla una simulación en Excel, con 1000 repeticiones, para
estimar el beneficio esperado (y su ancho medio de 95% de confianza) correspondiente al monto de la propuesta.
2. Se utiliza el modelo anterior para determinar el monto más apropiado para ConMex (bajo el criterio del valor esperado), suponiendo que el monto de la propuesta es un múltiplo de 10 000 entre
110 000 y 150 000.
El modelo de simulación de este problema se presenta en el archivo
ConMex.xls (véase la página web de este libro). En la primera hoja (llamada
ConMexHoja) del archivo ConMex.xls, se implantó el modelo básico de
15.3 Simulación con Excel y VBA
439
Tabla 15.8 Costos y ofertas de ConMex
simulación. Los pasos seguidos para construir el modelo de simulación fueron los siguientes:
1. Se ingresaron en la hoja de Excel los costos y las características de
las ofertas en las celdas que se indican en la tabla 15.8, para una
oferta de ConMex de 110 000.
2. Se construyó la primera repetición del experimento por simulación, en la fila 15 de la hoja, de la siguiente manera:
Se generó la oferta del primer competidor en la celda B15, escribiendo:
=$B$6+$B$7*DISTR.BETA.INV(ALEATORIO(),$B$8,$B$9)
Se copió el contenido de la celda B15 en las celdas C15 a E15
para generar las ofertas de los otros competidores (cabe notar
que se fijaron las celdas apropiadas usando $$ en el paso anterior).
Se calculó el monto del ganador de la licitación en la celda F15,
escribiendo:
=MIN(B15,C15,D15,E15,$B$6)
En la celda G15 se calculó una variable que toma el valor 1 si
ConMex ganó la licitación, y 0 de otra manera, mediante la
fórmula:
=SI($B$4=F15,1,0)
440
Capítulo 15
Simulación de sistemas
Observe que, en este caso, la función SI toma el valor 1 cuando
la celda B4 (oferta de ConMex) es igual a F15 (oferta del ganador), y 0 de otra forma.
Por último, se calculó el beneficio de ConMex en la celda H15:
=G15*($B$4-$B$3)-$B$2
3. Para generar 1000 repeticiones del experimento por simulación, se
copió la fila 15 y se pegó hasta la fila 1014.
4. Se calcularon las estadísticas del experimento por simulación,
considerando las 1000 observaciones del beneficio, de la siguiente
manera:
Se calculó el promedio de los beneficios simulados en la celda
E11:
=PROMEDIO(H15:H1014)
Se calculó la desviación estándar de los beneficios simulados
en la celda E12:
=DESVEST(H15:H1014)
De acuerdo con la confianza (celda C13) y el número de repeticiones (celda E13), se calculó el ancho medio del intervalo de
confianza:
=DISTR.NORM.ESTAND.INV(1-(1-C13)/2)*E12/RAIZ(E13)
Por último, se calcularon el límite inferior (celda G11) y el límite superior (celda G12) del intervalo de confianza.
Para determinar el monto de la oferta de ConMex que tiene el mejor
valor esperado, se experimentó con la versión que contiene macros en VBA
de la segunda hoja (ConMexVBA). Se encontró que con 1000 repeticiones
los anchos medios son muy amplios para tomar decisiones seguras, por lo
que se consideraron tamaños de muestra de 10 000, obteniéndose los resultados que se presentan en la tabla 15.9. Como puede observarse en la tabla,
la oferta que maximiza el valor esperado corresponde a un monto de
120 000. Cabe notar que en las celdas D7 y D8, de ambas hojas de cálculo
se calculan la esperanza y la desviación estándar de la oferta de cada competidor (las fórmulas se deducen de la tabla A.3 y de la propiedad A.13 del
Apéndice), y que estos valores dependen de a y b. Se sugiere que el lector
investigue cómo afectan los valores a y b la esperanza de la oferta de cada
competidor y, en consecuencia, la decisión óptima.
441
15.3 Simulación con Excel y VBA
Tabla 15.9 Resultados de la experimentación con diferentes montos de oferta
Oferta de ConMex
Promedio
110 000
5 479
120 000
Ancho medio
Límite inferior
Límite superior
59.35
5 419.65
5 538.35
10 594
178.83
10 415.17
10 772.83
130 000
10 012
292.56
9 719.44
10 304.56
140 000
5 484
327.19
5 156.81
5 811.19
150 000
270.00
258.76
11.24
528.76
Ejemplo 15.7 Estudio de la congestión en un cajero automático
Luego de analizar el patrón de llegadas a su cajero automático (ejemplo
15.5), LatinBanc desea investigar si la congestión en su cajero automático
está de acuerdo con sus políticas de servicio al cliente o si es necesario instalar un segundo cajero en la estación que se está analizando. Las políticas
de LatinBanc establecen que el tiempo promedio de espera de los clientes
no debe exceder de 1 minuto y que menos de 5% de los clientes tengan que
esperar más de 3 minutos.
Como se estableció en el ejemplo 15.5, el tiempo entre llegadas sucesivas de clientes a la estación del cajero se puede modelar como gamma con
parámetros a 4.83 y b 0.51. Por otro lado, un estudio sobre el tiempo
de uso del cajero por parte de los clientes ha revelado que éste se puede
modelar como uniforme entre 1 y 3 minutos. A partir de esta información,
a continuación se explicará cómo construir un modelo de simulación en
Excel para investigar si se están cumpliendo las políticas establecidas por
LatinBanc.
La llegada de los clientes y sus correspondientes tiempos de espera en el
cajero de LatinBanc se puede simular en una hoja Excel siguiendo el diagrama que se presenta en la figura 15.10, donde se utiliza la siguiente notación:
Generar tiempo de llegada
A(i) = A(i 1) + Gamma(a, b)
¿A(i) > S(i 1)?
NO
I(i) = S(i 1)
SI
Calcular inicio de la atención
I(i) = A(i)
FIGURA 15.10 Diagrama de
la simulación de esperas de
clientes en LatinBanc
Calcular inicio
de la atención
Calcular espera, salida y permanencia
E(i) = I(i) A(i)
S(i) = I(i) + Uniforme(a, b)
P(i) = S(i) A(i)
442
Capítulo 15
Simulación de sistemas
A(i) Tiempo al que ocurre la llegada del cliente i.
S(i) Tiempo al que ocurre la salida del cliente i.
I(i) Tiempo de inicio de la atención del cliente i.
E(i) Longitud de la espera (antes de usar el cajero) del cliente i.
P(i) Longitud de la permanencia (espera más uso de cajero) del cliente i.
Como puede observarse en la figura 15.10, el tiempo en que ocurre la llegada de un cliente se puede simular generando una variable gamma(a, b) y
sumándola al tiempo de llegada del cliente anterior, lo que es congruente
con el modelo de distribución gamma para los tiempos entre llegadas sucesivas; cabe mencionar que el tiempo de llegada del primer cliente se puede
suponer gamma(a, b). El inicio de la atención de un cliente será su mismo
tiempo de llegada si ya ocurrió la salida del cliente anterior (A(i) > S(i 1)),
de otra forma, ocurrirá cuando salga el cliente anterior. Por último, la salida
del cliente se puede simular sumando su tiempo de atención (uniforme(a,
b)) al inicio de su atención. Con estos datos es muy sencillo encontrar la
longitud de la espera y de la permanencia del cliente.
El primer modelo de simulación para LatinBanc se presenta en la segunda hoja (de nombre Latin1) del archivo LatinBanc.xls (véase la página
web de este libro), y se realizaron los siguientes pasos para construir este
modelo:
1. Se ingresaron en la hoja de Excel los parámetros de las distribuciones de los tiempos entre llegadas sucesivas y de atención, así como
el tiempo de espera considerado crítico (de 3 minutos), en las celdas que se indican en la tabla 15.10.
2. Se simuló la atención del primer cliente (en la fi la 13) de la siguiente manera:
Tabla 15.10 Datos sobre el cajero de LatinBanc
15.3 Simulación con Excel y VBA
443
Se generó la llegada del primer cliente (en la celda B13), escribiendo:
=DISTR.GAMMA.INV(ALEATORIO(),$B$3,$B$4)
Se indicó que el inicio de la atención del primer cliente ocurre
inmediatamente (en la celda C13), escribiendo:
=B13
Se calculó el tiempo de espera del primer cliente (en la celda
D13):
=C13-B13
Utilizando el algoritmo del ejercicio 15.2 para generar la distribución uniforme, se generó el tiempo de atención del primer
cliente (en la celda E13):
=$B$6+($B$7-$B$6)*ALEATORIO()
Se calculó el tiempo de salida del primer cliente (en la celda
F13):
=C13+E13
Se calculó la permanencia del primer cliente (en la celda G13):
=F13-B13
Por último, se estableció si el primer cliente espera más de
3 minutos, en cuyo caso la celda H13 toma el valor 1 (y 0
de otra forma):
=SI(D13>$B$8,1,0)
3. Se simuló la atención del segundo cliente (en la fi la 14) de la siguiente manera:
Se generó la llegada del cliente (en la celda B14), escribiendo:
=B13+DISTR.GAMMA.INV(ALEATORIO(),$B$3,$B$4)
De acuerdo con el tiempo de salida del primer cliente, se determinó el inicio de la atención del segundo cliente (en la celda
C14), escribiendo:
=SI(B14>F13,B14,F13)
Se calculó el tiempo de espera del cliente (en la celda D14):
=C14-B14
444
Capítulo 15
Simulación de sistemas
Se generó la longitud de la atención del cliente (en la celda
E14):
=$B$6+($B$7-$B$6)*ALEATORIO()
Se generó el tiempo de salida del cliente (en la celda F14):
=C14+E14
Se calculó la permanencia del cliente (en la celda G14):
=F14-B14
Por último, se utilizó la función SI de Excel para establecer si el
cliente espera más de 3 minutos (en la celda H14):
=SI(D14>$B$8,1,0)
4. Para simular la atención de 1000 clientes, se copió la fi la 14 y se
pegó hasta la fila 1015.
5. Se calcularon las estadísticas del experimento por simulación considerando las observaciones de los 1000 clientes:
Espera promedio (celda G3):
=PROMEDIO(D13:D1012)
Permanencia promedio (celda G4):
=PROMEDIO(G13:G1012)
Espera máxima (celda G5):
=MAX(D13:D1012)
Clientes atendidos (celda G6):
=CONTAR(D13:D1012)
Personas que esperaron (celda G7):
=CONTAR.SI(D13:D1012,”>0”)
Probabilidad de esperar (celda G8):
=G7/G6
Personas con espera crítica (celda G9):
=SUMA(H13:H1012)
445
15.3 Simulación con Excel y VBA
Probabilidad de espera crítica (celda G10):
=G9/G6
Utilización del cajero (celda G11):
=SUMA(E13:E1012)/F1012
En la tabla 15.11 se presentan los resultados de una simulación de 1000
clientes del cajero automático de LatinBanc, donde se puede apreciar que,
si bien la espera promedio fue menor de 1 minuto, el porcentaje de clientes
que esperaron más de 3 minutos fue mayor de 5%. Sin embargo, los resultados que se muestran en la tabla 15.11 todavía presentan incertidumbre.
El lector puede comprobar que si se vuelven a calcular los valores (accionando la tecla F9 desde la hoja de Excel), se obtendrán valores diferentes a
los de la tabla 15.11, ya que, si bien casi siempre el porcentaje de clientes
con espera crítica es superior a 5%, a veces se obtendrán esperas promedio
mayores (y a veces menores) de 1 minuto. De hecho, debemos reconocer
que los resultados de la tabla 15.11 corresponden a variables de desempeño, y la toma de decisiones debe basarse en medidas de desempeño (parámetros de las variables de desempeño). Para estimar los parámetros de este
modelo existen dos alternativas:
1. Incrementar el número de clientes en el experimento (o el tiempo
total de la simulación) para estimar las medidas de desempeño de
largo plazo, en cuyo caso también se puede estimar la precisión
de los estimadores (véase, por ejemplo, Banks et al., 2010). Este tipo de experimentación se conoce con el nombre de simulación de
estado estable (traducción del término en inglés steady-state simulation).
Tabla 15.11 Resultados de una simulación de 1000 clientes de LatinBanc
Resultados de la simulación
Espera promedio
0.85
Permanencia promedio
2.88
Espera máxima
6.22
Clientes atendidos
1000
Personas que esperaron
564
Probabilidad de esperar
0.56
Personas con espera crítica
71
Probabilidad de espera crítica
0.07
Utilización del cajero
0.80
446
Capítulo 15
Simulación de sistemas
Tabla 15.12 Desempeño del cajero de LatinBanc en 8 horas de operación
Resultados de la simulación
Promedio
Desviación estándar
Ancho medio
Espera promedio
0.95
0.35
0.022
Permanencia promedio
2.95
0.37
0.023
Espera máxima
5.60
1.80
0.111
Clientes atendidos
194.53
6.26
0.388
Personas que esperaron
114.74
15.63
0.969
Probabilidad de esperar
0.59
0.07
0.004
16.49
12.50
0.775
Probabilidad de espera crítica
0.08
0.06
0.004
Utilización del cajero
0.81
0.03
0.002
Personas con espera crítica
2. Fijar un periodo de operación (por ejemplo, 12 horas) y repetir el
experimento, que consiste en registrar las variables de desempeño
de los clientes que llegan sólo durante el periodo de operación. En
este caso, la esperanza de cualquier variable de desempeño se estima a través del promedio de las repeticiones y la precisión se puede
estimar calculando el ancho medio (como se hizo en los ejemplos
anteriores). Esta experimentación se conoce con el nombre de
simulación de estado transitorio (traducción del término en inglés
transient simulation).
Si bien la primera alternativa parece más factible de implementar sin la
utilización de macros, presenta la desventaja que supone que el patrón de
llegadas será siempre el mismo, a cualquier hora del día durante mucho
tiempo. Por lo mismo, preferimos hacer una simulación de estado transitorio, implementando la segunda alternativa, con la ayuda de macros en VBA
(en la hoja denominada Latin1VBA). Para repetir el experimento se requiere de información adicional (véase la hoja Latin1VBA) sobre el nivel de
confianza para los anchos medios, el número de repeticiones y el lapso
de tiempo a simular en cada repetición. En la tabla 15.12 se presentan los
resultados de 1000 repeticiones de la simulación de la operación del cajero
durante 8 horas (480 minutos). Como puede apreciarse, se puede concluir
que la esperanza del tiempo de espera es (ligeramente) menor de 1 minuto,
aunque la probabilidad de espera crítica sí es superior a 5% (entre 0.076 y
0.084 con 95% de confianza).
Ejemplo 15.8 Estudio de congestión con dos cajeros automáticos
Debido a que LatinBanc encontró que el desempeño de su localidad con un
solo cajero automático no es completamente satisfactorio, sería convenien-
15.3 Simulación con Excel y VBA
447
te estimar el desempeño de su localidad teniendo dos cajeros en lugar de
uno. Los modelos de simulación para este caso se presentan en las hojas
Latin2 y Latin2VBA del mismo archivo del ejemplo anterior. Como en
otros ejemplos, en la hoja Latin2 se construye un modelo sin la ayuda de
macros, mientras que en la hoja Latin2VBA se automatiza la repetición del
experimento utilizando macros en VBA.
La construcción del modelo para dos cajeros es similar a la de un cajero, sólo que ahora se necesita conocer el valor de dos variables más por
cada cliente: el tiempo en el que quedará (o quedó) libre el primer cajero y
el tiempo en el que quedará (o quedó) libre el segundo cajero, estas variables se identifican en la hoja Latin2 con los nombres Cajero 1 Libre y Cajero 2 Libre, respectivamente. Los únicos cambios con respecto al modelo
con un cajero son los que se requieren para determinar el tiempo de inicio
de uso del cajero y los valores de las (dos) nuevas variables, como se indica
a continuación.
1. Cuando se simula la atención del primer cliente (en la fi la 13):
Se hace la variable Cajero 1 Libre (en la celda H13) igual al
tiempo de salida del primer cliente:
=F13
Se hace la variable Cajero 2 Libre (en la celda I13) igual a cero.
2. Cuando se simula la atención del segundo cliente (en la fi la 14):
De acuerdo con el tiempo de llegada (celda B14), se calcula el
inicio de la atención (celda C14) de la siguiente manera:
=SI(B14>MIN(H13,I13),B14,MIN(H13,I13))
Se calcula el valor de la variable Cajero 1 Libre (en la celda
H14):
=SI(H13=MIN(H13,I13),F14,H13)
Se calcula el valor de la variable Cajero 2 Libre (en la celda I14):
=SI(I13=MIN(H13,I13),F14,I13)
En la tabla 15.13 se presentan los resultados de una simulación de 1000
clientes con el sistema de dos cajeros, donde se aprecia que tanto la espera
como la probabilidad de espera crítica fueron despreciables (el cliente con
mayor espera sólo esperó 0.54 minutos). Por otro lado, cuando se hizo el
análisis de simulación transitoria (con 8 horas de operación), bastó con 100
repeticiones para encontrar anchos medios aceptables; a la vez, éstos también confirman que la espera promedio y la probabilidad de espera crítica
448
Capítulo 15
Simulación de sistemas
Tabla 15.13 Simulación de 1000 clientes de LatinBanc con dos cajeros
Resultados de la simulación
Espera promedio
0.00
Permanencia promedio
1.99
Espera máxima
0.54
Clientes atendidos
1000
Personas que esperaron
16
Probabilidad de esperar
0.02
Personas con espera crítica
0
Probabilidad de espera crítica
0.00
Utilización del cajero
0.41
son muy pequeñas (alrededor de 0.01 minutos y prácticamente cero, respectivamente), como se muestra en la tabla 15.14.
Ejemplo 15.9 Evaluación de políticas de administración
de inventarios
La estación de servicio LubriLatin debe ordenar periódicamente (cada 30
días) las cantidades de lubricante SuperLubi que requiere para satisfacer las
demandas de sus clientes. El lubricante se vende en presentaciones de 1 litro y, aunque LubriLatin siempre recibe de su proveedor la cantidad que
ordenó, la entrega ocurre en un lapso de dos a cinco días de puesta la orden
Tabla 15.14 Desempeño de dos cajeros de LatinBanc en 8 horas de operación
Resultados de la simulación
Promedio
Desv. est.
Ancho medio
Espera promedio
0.01
0.01
0.001
Permanencia promedio
2.01
0.04
0.008
Espera máxima
0.60
0.38
0.075
195.53
6.01
1.177
Personas que esperaron
4.12
2.24
0.440
Probabilidad de esperar
0.02
0.01
0.002
Personas con espera crítica
0.00
0.00
0.000
Probabilidad de espera crítica
0.00
0.00
0.000
Utilización del cajero
0.81
0.03
0.006
Clientes atendidos
15.3 Simulación con Excel y VBA
449
(uniformemente distribuida), por lo que en ocasiones el inventario disponible al momento de hacer el pedido pudiera agotarse durante la demora.
La política de pedidos de LubriLatin se basa en dos números (s, S), el
primero de los cuales (s) es el máximo para ordenar, y el segundo (S) es
el inventario base. La política de administración de inventarios consiste
en que si el inventario disponible (I) al momento de ordenar es menor o
igual que s, se ordenarán S I unidades, de otra forma no se ordena cantidad alguna. Como podemos imaginar, el beneficio de LubriLatin por la
venta de SuperLubi depende de una buena elección de los parámetros (s, S),
ya que, por ejemplo, si s o S son muy bajos, se pueden perder ventas por
falta de inventario disponible, y si, por el contrario, son muy altos, se incurre en altos costos por inventarios innecesarios.
El registro de la demanda de los clientes indica que la demanda en un
día se ajusta a una distribución gamma con parámetros a 2 y b 20, por
lo que (véase la propiedad A.16 del Apéndice) LubriLatin supone que su
demanda en x días se distribuye como gamma con parámetros a 2x y
b 20. Actualmente, LubriLatin considera que su nivel máximo de s 800
para ordenar es apropiado, pero desearía investigar qué nivel base (S) de
inventario sería conveniente, sabiendo que éste debe ser un múltiplo
de 200. Por lo mismo, desea construir un modelo de simulación que le permita estimar el beneficio esperado por la venta de SuperLubi y la tasa de
surtido (porcentaje esperado de la demanda satisfecha), dados los valores
de los parámetros (s, S). Para evaluar sus beneficios, LubriLatin debe considerar que cada unidad (de 1 litro) le cuesta $20 y se vende a $25, y que cada
vez que se ordena al proveedor se incurre en un costo fijo de $1000. Para
estimar sus costos por mantener en inventario, LubriLatin considera que si
mantiene una unidad en inventario durante un año, incurriría en un costo
equivalente a 20% del costo del producto, es decir, (0.20)(20) 4. Actualmente, LubriLatin tiene un inventario inicial de 100 unidades en inventario
y debe decidir si hace un pedido.
En la figura 15.11 se presenta un diagrama con los pasos seguidos para
desarrollar el modelo de simulación para LubriLatin, que a continuación
explicamos con detalle. Como se observa en la figura, la idea principal es la
de simular primero la demora del pedido y la demanda durante la demora,
lo que permitirá calcular el inventario antes y después de la recepción del
pedido. Posteriormente se simula la demanda durante el resto del periodo,
lo que permite calcular las variables de desempeño del modelo de simulación.
El primer modelo de simulación para LubriLatin se presenta en la primera hoja (de nombre LubriHoja) del archivo LubriLatin (véase la página
web de este libro) y se siguieron los siguientes pasos para construir este
modelo:
1. Se ingresaron en la hoja de Excel los parámetros del modelo y los
datos necesarios para calcular las variables de desempeño en las
450
Capítulo 15
Simulación de sistemas
Generar demora y
demanda durante la demora
Calcular inventario
al final de la demora
Calcular inventario luego
de recibir el pedido
FIGURA 15.11 Diagrama de
la simulación de inventarios
de SuperLubi
Calcular faltantes, inventarios,
costos y beneficios
Generar demanda durante
el resto del periodo
celdas que se indican en la tabla 15.15. Observe que el costo unitario de inventario por periodo se calculó como (0.20)(20)(30/360) 0.333.
2. Se simularon los inventarios para un periodo de atención (en la fila
18) de la siguiente manera.
Se ingresó el inventario inicial (en la celda B18), escribiendo:
=$E$3
Se simuló la demora del pedido (en la celda C18) como uniforme entre E11 y E12:
=$E$11+($E$12-$E$11)*ALEATORIO()
Considerando la demora (C18) y los parámetros de la distribución gamma, se simuló la demanda durante la demora (en la
celda D18):
=REDONDEAR(DISTR.GAMMA.INV(ALEATORIO(),
C18*$E$14,$E$15),0)
Tabla 15.15 Parámetros de la simulación de LubriLatin
15.3 Simulación con Excel y VBA
451
Observe que se usa la función REDONDEAR para evitar decimales en la demanda.
Tomando en cuenta que el inventario se hace cero si la demanda es mayor que el inventario, se calculó el inventario al final
de la demora (en la celda E18):
=MAX(B18-D18,0)
De acuerdo con el inventario al inicio del periodo y con la política determinada por los parámetros (s, S), se estableció la
cantidad ordenada (en la celda F18):
=SI(B18<=$E$5,$E$4-B18,0)
Considerando el valor de la demora (celda C18), se estableció
la longitud correspondiente al resto del periodo (en la celda
G18):
=$E$2-C18
Se simuló la demanda durante el resto del periodo (celda H18):
=REDONDEAR(DISTR.GAMMA.INV(ALEATORIO(),
G18*$E$14,$E$15),0)
Se calculó el inventario al final del periodo (celda I18):
=MAX(E18+F18-H18,0)
Se calculó el inventario promedio durante el periodo (celda
J18):
=((B18+E18)*C18+(E18+F18+I18)*G18)/(2*$E$2)
Cabe mencionar que es un promedio ponderado considerando
la demora y el resto del periodo.
Se calculó el costo por mantener los inventarios durante el periodo (celda K18):
=$G$8*J18
Se calculó el costo total de las unidades vendidas (celda L18):
=SI(F18>0,1,0)*$E$6+$E$7*(B18+F18-I18)
Cabe resaltar que se está sumando el costo fijo por ordenar
(E6), sólo si se hizo el pedido.
Se calculó el ingreso por las ventas (celda M18):
=$E$9*(B18+F18-I18)
452
Capítulo 15
Simulación de sistemas
Se calculó el beneficio del periodo (celda N18):
=M18-L18-K18
Se calculó la tasa de surtido (celda O18):
=(B18+F18-I18)/(D18+H18)
3. Para simular 1000 repeticiones del experimento (con el mismo inventario inicial), se copió la fi la 18 y se pegó hasta la fila 1017.
4. Se calcularon los promedios de las variables de desempeño de interés, considerando las 1000 repeticiones:
Inventario promedio (celda K3):
=PROMEDIO(J18:J1017)
Ingreso (celda K4):
=PROMEDIO(M18:M1017)
Beneficio (celda K5):
=PROMEDIO(N18:N1017)
Tasa de surtido (celda K6):
=PROMEDIO(O18:O1017)
5. Se calcularon las desviaciones estándar de las variables de desempeño de interés (esto permite calcular anchos medios para las esperanzas), considerando las 1000 repeticiones:
Inventario promedio (celda L3):
= DESVEST (J18:J1017)
Ingreso (celda L4):
= DESVEST (M18:M1017)
Beneficio (celda L5):
= DESVEST (N18:N1017)
Tasa de surtido (celda L6):
= DESVEST (O18:O1017)
En la tabla 15.16 se presentan las estadísticas de 1000 repeticiones de la
simulación de inventarios de SuperLubi, considerando los datos de la tabla
453
Ejercicios propuestos
Tabla 15.16 Resultados de 1000 repeticiones de una simulación de inventarios
Promedio
Desviación
estándar
Ancho medio
476.34
74.89
4.642
Ingreso de ventas
28 806.95
3 842.99
238.186
Beneficio
4 602.61
745.30
46.193
Tasa de surtido
96.25%
4.24%
0.26%
Resultados de la simulación
Inventario promedio
15.15, es decir, con un inventario base de 1600 unidades (que equivale a que
se ordenaran 1500 unidades). Como se observa en la tabla, la tasa de surtido promedio es aceptable (alrededor de 96%), aunque el ancho medio es
relativamente amplio como para permitir la toma de decisiones. Como en
los ejemplos anteriores, en la segunda hoja del archivo LubriLatin.xls se
utilizó VBA para automatizar los cálculos de esta primera hoja, lo que permite realizar más rápido los experimentos necesarios para encontrar el nivel del inventario base más recomendable para LubriLatin. Para obtener
mejores anchos medios, se incrementó el número de repeticiones a 10 000.
En la tabla 15.17 se presenta el resumen de las estadísticas sobre beneficios
y tasas de surtido obtenidas bajo diferentes inventarios base (alrededor de
1400), donde se puede apreciar que un inventario base de 1400 unidades es
el que proporciona los mejores beneficios para LubriLatin.
EJERCICIOS PROPUESTOS
1. Al programar en computadora el generador de Lewis, Goodman y Miller (véase figura 15.5),
se ha tenido especial cuidado en que no se produzca overflow, ya que si se calcula Xn1 16 807Xn por multiplicación directa, es muy fácil obtener un entero más grande que 231 1
Tabla 15.17 Inventarios de SuperLubi bajo diferentes tamaños de pedido
Beneficio
Tasa de surtido
Inventario base
Promedio
Ancho medio
Promedio
Ancho medio
1000
3864.67
3.26
83.81%
0.18%
1200
4457.99
9.85
93.36%
0.12%
1400
4611.61
14.04
95.88%
0.09%
1600
4580.38
15.00
96.15%
0.08%
454
Capítulo 15
Simulación de sistemas
(el máximo entero long permitido). Verifique que el algoritmo de la figura 12.5 calcula el
residuo de dividir (16 807ix) entre (231 1), siguiendo los siguientes pasos:
a) Utilice una hoja de cálculo (o calculadora) para comprobar que:
i. 231 1 2 147 483 647 127 773 * 16 807 2836
ii. (2 147 483 647)1 4.65661287E-10
b) Partiendo de que c es el cociente (entero) obtenido al dividir a entre b (ambos números
naturales), si y sólo si a bc d, donde 0 d b 1 es un número natural, pruebe
que:
i. La variable k1 del algoritmo de la figura 15.5 cumple:
k1 127 773ix k2, donde 0
k2
127 772
ii. Si r 16 807 (ix 127 773k1) 2836k1, entonces r o r 231 1 es el residuo de
dividir 16 807ix entre 231 1.
c) Utilice los incisos anteriores para mostrar que el algoritmo de la figura 15.5 devuelve el
residuo de dividir (16 807ix) entre (231 1), dividido entre (231 1).
2. A partir de la tabla A.3 del Apéndice, se puede encontrar que la FDA de una variable aleatoria X distribuida uniformemente entre a y b está dada por:
0,
F (x) =
x ≤ a,
( x − a ) , a < x < b,
b−a
1,
x ≥ 1.
Suponga que X se distribuye uniformemente entre a y b:
a) Pruebe que si 0 U 1, entonces la solución de U F(X) es X a (b a)U.
Ejercicios propuestos
455
b) Utilice el resultado anterior para diseñar un algoritmo que genere muestras de X basado en transformación inversa (algoritmo 12.1).
3. De acuerdo con el ejercicio anterior, una variable aleatoria X se distribuye uniformemente
entre 0 y 1, si y sólo si P[X x] x, 0 x 1. Suponga que U se distribuye uniformemente entre 0 y 1:
a) Dado 0 y 1, calcule P[1 U y].
b) Pruebe que Y 1 U se distribuye uniformemente entre 0 y 1.
4. A partir de la tabla A.3 del Apéndice, se puede encontrar que la FDA de una variable aleatoria X que sigue una distribución triangular con parámetros a, c y b (mínimo, moda y
máximo, respectivamente) está dada por:
x ≤ a,
0,
( x − a ) , a < x ≤ c,
(b − a) (c − a)
2
F (x) =
( b − x ) ,c < x < b,
b
−
( c ) (b − a)
2
−
1,
x ≥ 1.
Suponga que X sigue una distribución triangular con parámetros a, c y b:
a) Resuelva U F(X) cuando a X c, e indique el correspondiente intervalo para U.
b) Resuelva U F(X) cuando c X b, e indique el correspondiente rango para U.
c) Utilice los resultados de los incisos anteriores para diseñar un algoritmo que genere
muestras de X basado en transformación inversa (algoritmo 15.1). Observe que este algoritmo se puede implementar haciendo uso de la función SI de Excel.
5. La empresa CalzaLat lanzará su línea DeLuxe de zapatos para la temporada de invierno,
aunque primero desea simular el beneficio (o pérdida) que puede obtener en dicha temporada. Con base en un panel de expertos, se han determinado seis escenarios de demanda (y
sus correspondientes probabilidades) para la temporada de invierno, que se muestran en la
siguiente tabla.
Demanda
(pares de zapatos)
Probabilidad
5 000
0.2
10 000
0.1
15 000
0.25
20 000
0.2
25 000
0.2
30 000
0.05
456
Capítulo 15
Simulación de sistemas
Si CalzaLat decide lanzar la línea DeLuxe, incurre en un costo fijo de $10 000, y de $150 por
cada par de zapatos que decida producir. Por otro lado, CalzaLat recibirá $250 por cada par
de zapatos vendido en la temporada de invierno, y los pares no vendidos se pueden rematar
en $80 al final de la temporada.
a) Utilice la función BUSCAR de Excel y aplique el método de transformación inversa
para simular la demanda de la línea DeLuxe en la temporada de invierno.
b) A partir del inciso anterior, desarrolle un modelo en Excel para simular el beneficio
obtenido en la temporada de invierno para un tamaño de producción de 10 000 pares
de zapatos. Estime el beneficio esperado, así como el ancho medio de la estimación, con
base en 1000 repeticiones del experimento de simulación.
6. Utilice el modelo en Excel del ejercicio anterior para determinar el tamaño de producción
de la línea DeLuxe que proporciona el mayor beneficio esperado. Se sugiere probar los valores posibles de la demanda (5000, 10 000, …, 30 000).
7. El gerente de una empresa manufacturera desea probar la aceptación de un nuevo producto
en una campaña de tres meses y desea investigar su rentabilidad y el costo de la campaña.
Para poder empezar a producir este producto es necesario invertir $40 000 por concepto de
diseño y desarrollo del proceso. Actualmente no se tiene certeza sobre el costo variable por
unidad producida, pero se pronostica uniformemente entre $10 y $20. Según un estudio de
mercado, cada unidad del producto se venderá en $35 por unidad, pronosticándose que la
demanda durante la campaña se distribuye triangularmente (véase ejercicio 15.4), con parámetros a 500, b 10 000, c 5000. Si una unidad producida no se puede vender durante la campaña, se puede rematar en $5 a una tienda de descuento.
a) Construya un modelo en Excel para simular el beneficio obtenido en la campaña para
un tamaño de producción de 2000 unidades.
b) Utilice el modelo del inciso anterior para estimar el beneficio esperado y la probabilidad
de tener pérdida (con sus correspondientes anchos medios) con base en 1000 repeticiones del experimento de simulación.
8. Utilice el modelo en Excel del ejercicio anterior para determinar el tamaño de producción
que proporciona el mayor beneficio esperado, si éste debe ser un múltiplo de 500 unidades.
9. Un vendedor de periódicos ordena periódicamente El Informativo. Cada periódico le cuesta $5 y se vende en $10. Los periódicos que no se venden se pueden rematar para reciclado
en $2. Se sabe que la demanda sigue una distribución triangular con parámetros a 35,
c 50 y b 60.
a) Construya un modelo en Excel para simular el beneficio del vendedor de periódicos si
adquiere 40 unidades.
b) Utilice el modelo del inciso anterior para estimar el beneficio esperado y la probabilidad
de tener pérdida (con sus correspondientes anchos medios), con base en 1000 repeticiones del experimento de simulación.
457
Ejercicios propuestos
c) Utilice el modelo del inciso anterior para determinar el número de periódicos que le
conviene adquirir al vendedor de periódicos, si sabe que no puede adquirir más de 50 ni
menos de 40.
10. Con el objetivo de estudiar la congestión en la caja de cobranza, la tienda de autoservicio
Oso ha tomado el registro de 100 tiempos entre las llegadas de los clientes (en minutos), que
se presentan en la siguiente tabla.
0.31
0.15
1.96
2.19
1.12
0.61
1.77
2.44
0.33
0.73
0.28
0.5
1.23
0.34
0.85
0.12
2.26
1
1.34
0.73
0.5
1.44
0.46
0.74
1.18
0.4
0.87
0.51
0.42
0.54
1.29
0.63
3.38
0.17
0.68
0.28
0.41
1.2
0.42
0.81
1.07
1.53
3.69
0.51
1.18
1.57
0.26
1.44
2.69
1.56
0.69
0.15
0.35
0.8
0.9
2.72
1.76
0.18
0.28
1.74
0.47
0.7
0.26
1.28
0.99
0.99
1.11
0.64
0.12
1.88
0.67
0.53
0.08
0.34
0.66
0.39
2.5
0.94
0.34
2
2.45
0.26
1.46
0.78
0.29
0.32
0.13
1.25
0.98
1.32
1.3
0.71
1.92
0.59
0.9
2.87
0.16
0.83
1.11
0.75
a) Introduzca los datos en la hoja de cálculo AnEntrada del archivo LatinBanc.xls y obtenga los valores de a y b que ajustan una distribución gamma a los datos de Oso.
b) Considerando ocho intervalos de clase, construya un histograma de frecuencias para
los datos de Oso (puede utilizar el procedimiento de la hoja AnEntrada).
c) Construya el histograma de frecuencias teóricas para los datos de Oso, considerando
los ocho intervalos del inciso anterior y la distribución gamma con los parámetros obtenidos en el inciso a (puede utilizar el procedimiento de la hoja AnEntrada).
11. La tienda de autoservicio del problema anterior tiene por política que los clientes no deben
esperar en promedio más de 2 minutos y que el porcentaje de clientes que esperan más de
4 minutos no debe exceder de 5%.
a) Considerando que el tiempo de atención del cajero se distribuye como uniforme entre
1 y 2 minutos, construya un modelo en Excel para simular la atención de clientes en el
cajero de Oso (desarrolle un procedimiento similar al de la hoja de cálculo Latin1 del
archivo LatinBlanc.xls).
b) Utilice el modelo del inciso anterior para determinar si se está cumpliendo la política
de Oso, con base en la simulación de la atención de 1000 clientes.
12. Desarrolle un procedimiento similar al de la hoja de cálculo Latin2 que aparece en el archivo LatinBlanc.xls para simular la atención de clientes en Oso (del ejercicio anterior) si se
dispone de dos cajeros, y con base en la simulación de 100 clientes determine el tiempo
promedio de espera y la probabilidad de esperar más de 4 minutos.
13. La constructora ConMex (véase ejemplo 12.7) presentará una propuesta para la licitación
de un paso a desnivel. ConMex estima que la preparación de la propuesta le costará $7000,
y que en caso de ganar la licitación la ejecución del proyecto costaría $1 500 000. Además,
se estima que las propuestas de sus cuatro oponentes son independientes y que cada una se
458
Capítulo 15
Simulación de sistemas
distribuye como 1 400 000 120 000X, donde X sigue una distribución beta con parámetros a 8 y b 4.
a) Construya un modelo en Excel para simular el beneficio de ConMex, si su propuesta
para construir el paso a desnivel es de $2 000 000.
b) Estime el beneficio esperado, así como el ancho medio de la estimación, con base en
1000 repeticiones del experimento de simulación.
14. Utilice el modelo en Excel del ejercicio anterior para determinar el monto más apropiado
para ConMex (bajo el criterio del valor esperado), si se ha decidido que el monto de la propuesta sea un múltiplo de 100 000 entre 1 600 000 y 2 500 000.
15. El restaurante Pollo Bueno debe ordenar periódicamente (cada 15 días) la cantidad de salsa
especial que requiere para satisfacer la demanda de sus clientes. La salsa se compra en envases de 100 gramos y los tiempos de entrega ocurren en un lapso entre dos y cuatro días
(uniformemente distribuidos) de puesta la orden, razón por la cual debe ordenarse apropiadamente para que el inventario disponible al momento de hacer el pedido no se agote durante la demora. Al momento de hacer un pedido el administrador revisa el inventario (I)
de salsa disponible, y si encuentra que éste es menor o igual que s 6000 envases, entonces
ordena S I envases, donde S es el nivel base de inventario. El administrador de Pollo
Bueno desea investigar cuál es el valor apropiado del nivel base de inventario S con el objetivo de satisfacer la demanda de sus clientes, sin incurrir en costos innecesarios por ordenar
y mantener inventarios.
a) Construya un modelo en Excel para simular el beneficio de Pollo Bueno (y la tasa de
surtido) por la venta de salsa durante un periodo de 15 días, desde la puesta de un pedido (a partir de cierto inventario inicial) con las siguientes consideraciones:
i. La demanda diaria de salsa (en envases de 100 gramos) sigue una distribución
gamma con parámetros a 200 y b 2 (y, en consecuencia, la demanda en n días
sigue una distribución gamma con parámetros a 2n y b 2).
ii. El ingreso por venta de salsa (V) es igual a $6 por cada envase de 100 gramos, mientras que el costo de ventas (CV) es de $4 por cada envase vendido.
iii. Cuando se hace un pedido de salsa se incurre en un costo (CO) de $200 (independientemente del tamaño del pedido).
iv. El costo por mantener inventarios durante el periodo de 15 días (CI), es de $0.05
multiplicado por el inventario promedio durante el periodo.
v. El beneficio durante el periodo es igual a V CV CO CI.
vi. La tasa de surtido es el porcentaje de la demanda que fue atendida durante el periodo
de 15 días.
b) Utilice el modelo del inciso anterior para estimar el beneficio esperado y la tasa de surtido esperada (así como sus correspondientes anchos medios), con base en 1000 repeti-
459
Ejercicios propuestos
ciones del experimento de simulación, cuando el inventario al momento de la revisión
es de 1500 envases.
16. Utilice el modelo en Excel del ejercicio anterior para determinar el inventario base (S) que
proporciona el mayor beneficio esperado, si el tamaño del pedido debe ser un múltiplo de
200 envases.
17. La representación estudiantil universitaria realiza una conferencia anual para estudiantes
de ingeniería industrial. Aunque se tiene incertidumbre sobre el número de personas que
asistirán al evento, se sabe que el mínimo será de 200, el máximo de 1000 y el valor más
verosímil de 500, por lo que se puede asumir que el pronóstico de asistentes sigue una distribución triangular con a 50, b 20 y c 500 (véase ejercicio 15.4). Cada asistente pagará $200 por concepto de registro y se estima un costo fijo de $20 000 por renta de local y
equipo. Además se incurre en gastos variables que se distribuyen uniformemente, con un
mínimo de $30 000 y máximo de $100 000.
a) Construya un modelo en Excel para simular el beneficio que obtendrá la representación
estudiantil por la realización de la conferencia.
b) A partir de los datos calcule el beneficio mínimo y el máximo, y con base en 1000 repeticiones del experimento de simulación estime el beneficio esperado y la probabilidad
de tener beneficio positivo (y los correspondientes anchos medios).
18. En la Ciudad de Los Monarcas se construirá una nueva planta termoeléctrica. En la siguiente tabla se presentan las actividades necesarias, así como el promedio y la desviación estándar del tiempo que han requerido las actividades en proyectos similares. Para que se pueda
iniciar una actividad es necesario que se hayan terminado sus predecesoras.
Tiempo de ejecución (días)
Actividad
Descripción
Predecesores
Promedio
Desviación estándar
D
Diseño
Ninguno
5
1
L
Selección del lugar
D
3
2
C
Selección del contratista
D
5
1
P
Selección del personal
D
2
1.5
E
Construcción de edificio
L
25
7
N
Equipamiento de planta
C, P
12
4
M
Manual de operación
C, P
3
0.5
T
Entrenamiento
M
5
2
R
Sistema de seguridad
E, N
7
1.5
O
Licencia
T, R
2
1
460
Capítulo 15
Simulación de sistemas
Asumiendo que la duración de cada actividad sigue una distribución gamma, determine los
parámetros a y b de cada actividad, de acuerdo con las fórmulas del ejemplo 15.6.
a) Construya un modelo en Excel para simular la duración del proyecto. Asuma que cada
actividad se inicia tan pronto como se terminen sus predecesoras, y que la duración de
cada actividad sigue una distribución gamma con los parámetros encontrados en el
inciso anterior.
b) Con base en 1000 repeticiones del experimento de simulación, estime la duración esperada del proyecto, la probabilidad que el proyecto dure más de 50 días y la probabilidad
que dure menos de 60 días. Calcule también los correspondientes anchos medios.
19. Un mecanismo requiere de dos baterías para funcionar, si una de esas baterías falla, el dispositivo no trabaja. Actualmente se tienen dos baterías nuevas en el mecanismo más tres
baterías nuevas de repuesto. Cada batería, una vez colocada en el dispositivo, dura un tiempo distribuido log-normal con una media de 25 horas y una desviación estándar de siete
horas. Se supone que cuando una batería se acaba inmediatamente se remplaza con otra
batería de repuesto, si es que hay alguna disponible. Desarrolle un modelo de simulación en
Excel y realice 300 repeticiones del experimento para realizar lo siguiente:
a) Construya un modelo en Excel para simular el tiempo total que el mecanismo funciona
con las baterías disponibles (utilice la función DISTR.LOG.NORM para simular la distribución log-normal).
b) Con base en 1000 repeticiones del experimento de simulación, estime el tiempo esperado y la probabilidad de que el mecanismo funcione más de 50 horas (y los correspondientes anchos medios).
Referencias
Banks, J., Carson II, J. S., Nelson, B. L. y Nicol, D. M.
(2010). Discrete-Event System Simulation, 5a.
Ed. Prentice Hall, Nueva York.
Kelton, W. D., Smith, J. S., Sturrock, D. T. y Muñoz,
D. F. (2011). “Simio y simulación, modelado,
análisis, aplicaciones”, en Simio L.L.C, edición
ebook en español, disponible en http://www.
simio.com/publications/.
Lewis, P. A. W., Goodman, A. S. y Miller, J. S. (1969).
“A pseudo-random number generation for the
system 360”, en IBM Systems Journal
8:136-146.
Logan, D. L. (2012). A First Course in the Finite
Element Method, 5a. Ed. Cengage, Stamford.
Schmidt, J. W. y Taylor, R. E. (1970). Simulation and
Analysis of Industrial Systems, Irwin, Homewood.
Wackerly, D. D., Mendenhall III, W. y Scheaffer, R. L.
(2008). Mathematical Statistics with Applications, 7a. Ed. Cengage, Belmont.
CAPÍTULO
16
Modelado y optimización
AUTOR:
Dr. Adrián Ramírez Nafarrate
16.1
16.2
16.3
16.4
¿Qué es un modelo?
Clasificación de los modelos
Proceso de modelado
Introducción a la programación lineal
16.5 Solución de un PPL con dos variables de
decisión
16.6 Terminología de PL
16.7 Caracterización de los modelos de PL
16.8 Análisis de sensibilidad
16.9 Solución de un problema de PL con más de
dos variables de decisión
16.1 ¿Qué es un modelo?
Un modelo es una representación o una abstracción de un sistema real. Se
utiliza para el diseño, la experimentación, la mejora de una parte del sistema o del sistema en su totalidad.
Por ejemplo, el proceso de diseño de un automóvil o de una construcción, tal como un auditorio, incluye la elaboración de planos y de dibujos
técnicos, además del desarrollo de prototipos f ísicos que ayudan a visualizar la forma en que las diversas partes del sistema interaccionan entre sí.
De manera similar, el diseño de una sucursal bancaria, de un hospital o
de una planta de ensamble de automóviles incluye el desarrollo de diagramas de flujo o de simulación por computadora para determinar el flujo de
los clientes, de los pacientes o de las partes a través del sistema, y el número
apropiado de recursos requeridos para asegurar el desempeño deseado del
mismo.
Por otro lado, un modelo de simulación también puede ser usado para
representar distintas formas de abordar un avión, y seleccionar la opción
que reduzca significativamente el tiempo en tierra de la aeronave.
Además, existen modelos que pueden proporcionar una solución óptima a un problema. Por ejemplo, una empresa que produce dos artículos
distintos puede utilizar un modelo para obtener la mezcla de producción
que maximice su ganancia.
462
Capítulo 16
Modelado y optimización
En ingeniería, los modelos son fundamentales. En varios capítulos de
este libro se presentan modelos cuyas bases sirven para un propósito específico: por ejemplo, la administración de inventarios. En este capítulo se
discuten algunas consideraciones importantes sobre el uso de modelos en
ingeniería industrial, se presenta una clasificación de los modelos y se introduce un tipo de modelo llamado programación lineal.
16.2 Clasificación de los modelos
En ingeniería industrial los modelos se pueden clasificar como gráficos o
matemáticos. Los modelos gráficos incluyen diagramas de diseño, diagramas de flujo y diagramas de red. Este tipo de modelos utiliza iconos para
representar distintos elementos o procesos de un sistema. Por ejemplo, la
figura 16.1 muestra un diagrama de flujo. Los diagramas de flujo y los diagramas de red utilizan iconos para representar procesos o actividades en
un sistema, y arcos o flechas para representar el flujo de entidades, como
clientes, partes, automóviles, etc. Los modelos gráficos son útiles para observar la estructura de un sistema en su totalidad y para analizar el impacto
de posibles modificaciones al sistema.
Por otro lado, los modelos matemáticos representan la estructura y el
comportamiento de un sistema por medio de variables, parámetros y expresiones matemáticas. Este tipo de modelos tiene una gran aplicación en
la ingeniería industrial y su utilidad radica en su capacidad para analizar,
experimentar y predecir el desempeño de un sistema.
Existen distintos tipos de modelos matemáticos que se diferencian entre sí por su construcción, por las suposiciones de sus componentes y por
Aceptación
Emisión
de cheque
Aceptación
Revisión
CA
Inicio
Módulo de
información
Revisión
CB
Fin
CA
CB
Módulo de
devolución
FIGURA 16.1 Ejemplo de un diagrama de flujo
Rechazo
Rechazo
Rechazo
Revisión
rápida (CR)
16.2 Clasificación de los modelos
463
el tipo de respuesta que brindan. A continuación se presentan las categorías en las que se pueden clasificar los modelos matemáticos:
Estático vs. dinámico. Los modelos estáticos no consideran la evolución
del sistema a través del tiempo, sino que estudian su comportamiento en
un instante determinado o asumen que el comportamiento es estable durante cierto periodo. Por otro lado, los modelos dinámicos incorporan la
variable que representa al tiempo y pueden hacer predicciones del estado
del sistema en función de los eventos que ocurren en un periodo y su
impacto en el sistema. Los modelos dinámicos, a su vez, pueden ser continuos o de cambio discreto. El modelo es continuo si las variables que describen el estado del sistema evolucionan continuamente en el tiempo; en
cambio, el modelo es de cambio discreto (o simplemente discreto) si estas
variables sólo cambian debido al efecto de eventos que ocurren en instantes discretos (numerables) del tiempo.
Determinístico vs. probabilístico. Los modelos determinísticos asumen
que todos los parámetros y entradas del modelo se conocen con certeza,
mientras que los modelos probabilísticos consideran que existe incertidumbre en algunas entradas del modelo (por ejemplo, la demanda de los
artículos que produce una empresa), por lo que incluyen variables aleatorias que representan esta incertidumbre, por lo regular, por medio de distribuciones de probabilidad.
Predictivo vs. prescriptivo. Los modelos predictivos utilizan expresiones
matemáticas para predecir el comportamiento del sistema en función de
algunas de sus variables o de algunos de sus parámetros, pero no encuentran soluciones a problemas específicos. En cambio, los modelos prescriptivos, también llamados de optimización, utilizan expresiones matemáticas
o algoritmos numéricos para encontrar una solución óptima a un problema. La solución óptima es la mejor solución posible que se puede obtener
para maximizar un beneficio o minimizar un costo.
La figura 16.2 muestra un modelo de simulación desarrollado en un
software llamado Simio. La simulación es un modelo con fundamentos matemáticos que permite visualizar gráficamente el desempeño de un sistema. Los modelos de simulación imitan los procesos y las interacciones de
un sistema real. Estos modelos son utilizados para experimentar distintas
configuraciones o cambios que se pueden hacer en la estructura del sistema
real y observar el impacto en el mismo.
La simulación es, entonces, un ejemplo de sistema dinámico, ya que
permite observar la evolución del sistema a través del tiempo. Hay simulaciones determinísticas y probabilísticas, pero estas últimas son las de mayor aplicación en el análisis de los sistemas que incluyen líneas de espera,
debido a que es poco realista asumir que las llegadas de las entidades a un
sistema (por ejemplo, clientes a un banco) y los tiempos de servicio se pueden conocer con certeza. Actualmente, la simulación es considerada un
464
Capítulo 16
Modelado y optimización
FIGURA 16.2 Ejemplo de un modelo de simulación
modelo predictivo, ya que permite evaluar el comportamiento del sistema,
pero no busca soluciones óptimas a los problemas. Aunque es conveniente
mencionar que se están investigando métodos para desarrollar algoritmos
de optimización basados en experimentos por simulación.
La figura 16.3 muestra la estructura general de un modelo de programación lineal, cuyas bases se presentan más adelante en este capítulo. Este
tipo de modelos se utiliza para la asignación óptima de recursos. Es decir,
debido a que los recursos son limitados en cualquier sistema, los modelos
de programación lineal ayudan a determinar la asignación adecuada de estos recursos para maximizar algún beneficio.
La programación lineal es un modelo prescriptivo, pues se puede combinar con algoritmos de búsqueda para proporcionar soluciones óptimas a
los problemas.
Maximar Z c1x1 c2x2 … cnxn
Sujeto a:
a11x1 a12x2 … a1nxn b1
a21x1 a22x2 … a2nxn b2
:
am1x1 am2x2 … amnxn bm
x1 0, x2 0, …, xn 0
FIGURA 16.3 Estructura general de un modelo de programación lineal
16.3 Proceso de modelado
465
16.3 Proceso de modelado
Como se describió, los modelos son utilizados ampliamente en el diseño y
en la mejora de sistemas. Sin embargo, existen consideraciones que se deben tomar en cuenta para la utilización efectiva de los modelos.
George Box, quien fue un afamado estadístico por sus contribuciones
a la teoría de control de calidad, al análisis de series de tiempo y al diseño
de experimentos, entre otras áreas, escribió la siguiente cita sobre el uso de
modelos: “Esencialmente, todos los modelos están mal, pero unos son útiles.” Debido a que los modelos son una representación parcial de la realidad, éstos no capturan la totalidad de la complejidad de un sistema. Pero si
un modelo está bien diseñado, puede ser de gran utilidad para mejorar significativamente el sistema.
Las ventajas de la utilización de modelos incluyen: un menor costo de
experimentación comparado con el de experimentar con el sistema real,
capturar una amplia gama de detalle, entender y comunicar aspectos del
sistema real, ayudar a detectar deficiencias del sistema y mejorar procesos.
Por otro lado, las desventajas o las consideraciones que se deben tener
en cuenta sobre el uso de modelos implican: un nivel avanzado de conocimientos en la técnica de modelado a usar, la recolección y el análisis de
datos para las entradas del modelo y, con frecuencia, el análisis de sensibilidad y/o el análisis estadístico que requiere el análisis de resultados.
El proceso de modelado para la solución de problemas y ejecuciones de
proyectos es un trabajo colectivo en el que intervienen expertos en modelado y en el sistema real. La figura 16.4 muestra un esquema del proceso de
modelado como base para diseñar y mejorar sistemas. En el primer paso se
identifica el sistema, incluyendo sus componentes y sus interacciones, y
se define el problema a resolver. Usualmente, este problema se plantea en
forma de pregunta.
El siguiente paso es ubicar y seleccionar la técnica de modelado apropiada. Como se mencionó en este capítulo, existen varias clasificaciones de
los modelos. Por lo tanto, se debe elegir aquella técnica que ayude a responder la pregunta de interés dentro del presupuesto. Existe más de una técnica de modelado que sirve para responder una misma pregunta, pero la selección de la técnica apropiada debe considerar la sofisticación de los
modelos, los datos requeridos y el costo.
Posteriormente, se deben identificar y recolectar los datos necesarios
para la construcción del modelo. Ésta es una parte fundamental, ya que el
éxito del modelo se debe a la calidad de los datos de entrada. Si entra basura al modelo, el modelo saca basura en sus resultados, independientemente
de su estructura; por lo tanto, se debe diseñar un proceso de recolección de
datos que garantice la calidad de los mismos.
Los factores que se deben considerar en el proceso de recolección de
datos son:
466
Capítulo 16
Modelado y optimización
Identificar el sistema
y definir el problema
Identificar la técnica
de modelado apropiada
y los datos requeridos
Recolectar los datos
de entrada del
modelo
Construir el modelo
Validar el
modelo
Validar el
modelo
Experimentar con
el modelo
Realizar análisis
de sensibilidad
Obtener conclusiones
y formular recomendaciones
FIGURA 16.4 Proceso de
modelado
•
•
Disponibilidad: algunos datos pueden estar disponibles en bases
de datos y, de ser así, se debe especificar su ubicación. Por otro lado, es posible que el modelo requiera de la recolección de datos
que no se tienen registrados, en cuyo caso, se debe desarrollar el
proceso de recolección y determinar el formato para registrar los
datos, la cantidad de datos requerida y el tiempo de recolección.
Formato: los datos deben transformarse al formato que requiera el
modelo. Algunos modelos requieren distribuciones de probabilidad, mientras que otros sólo requieren especificar una constante.
16.3 Proceso de modelado
•
•
•
467
Además, se debe tener en cuenta la consistencia en el manejo de
las unidades de los datos. Es decir, se deben utilizar las mismas
unidades de longitud, peso, tiempo y moneda a través del modelo.
Calidad: es importante verificar que los datos representan de forma realista las características del sistema. Por lo tanto, se debe
identificar si existen datos que se alejan del patrón existente en el
sistema o que representan situaciones poco comunes, y decidir sobre su uso. Asimismo, es conveniente aplicar procedimientos (a
menudo usando la computadora) para detectar posibles errores o
para verificar la consistencia y precisión de la información disponible en las bases de datos.
Vigencia: los datos deben coincidir con el comportamiento observado en el sistema que se va a modelar. Por lo tanto, los datos que
se hayan recolectado durante un periodo muy alejado de la aplicación del modelo puede que no sean vigentes.
Estacionalidad: una gran parte de los sistemas tiene un comportamiento diferente a través del tiempo, debido al impacto del clima, los horarios de trabajo, los días festivos, etc. Por lo tanto, se
debe definir la forma en que se considerarán estos aspectos en el
modelo.
Una vez que se recolectan los datos requeridos, se procede a la construcción del modelo, de acuerdo al tipo de modelo seleccionado. Este proceso también es fundamental para garantizar el éxito del proyecto. Es posible que durante el desarrollo del modelo el modelador se dé cuenta que se
requieren datos adicionales o, incluso, que el modelo no responde la pregunta de interés. Por esto, el proceso de modelado es iterativo y se puede
regresar un paso para hacer ajustes al proyecto.
El nivel de detalle del modelo tiene impacto tanto en los resultados
como en el costo de experimentación y en la solución al modelo. Si éste
incluye mucho detalle, puede producir resultados muy parecidos a los del
sistema real; sin embargo, también requiere de una gran cantidad de datos
que posiblemente no se tienen disponibles. Usualmente, es preferible un
modelo relativamente simple pero útil para realizar el análisis deseado.
Por otro lado, en su mayoría los modelos son hechos a la medida del
problema. Entonces, el desarrollo exitoso del proyecto depende de la interacción y de la comunicación entre el modelador y los expertos en el sistema.
El siguiente paso consiste en verificar y validar el modelo. El primero se
refiere a asegurarse que el modelo está construido correctamente. Debido a que la mayoría de los modelos requieren del uso de códigos en computadora, el proceso de verificación incluye la detección de errores y de
problemas en la lógica del código. En cambio, la validación del modelo consiste en asegurarse que el modelo representa adecuadamente el sistema
real. Regularmente, este proceso se lleva a cabo probando el modelo con
468
Capítulo 16
Modelado y optimización
distintas situaciones conocidas y observando si la salida del modelo es razonable.
Una vez que se verifica y se valida el modelo, se procede a experimentar
con él. El proceso de experimentación debe estar enfocado a responder la
pregunta de interés. Se deben diseñar adecuadamente los escenarios que
se evaluarán y recolectar los datos de salida del modelo para su análisis
posterior.
Finalmente, a partir del análisis de los resultados del modelo se emiten
las conclusiones y las recomendaciones necesarias para resolver el problema y mejorar el sistema. Se debe considerar bajo qué condiciones las recomendaciones formuladas son válidas. Para ello se utiliza el análisis de sensibilidad, que consiste en observar los cambios en las soluciones obtenidas
en el modelo, si cambia algo en la estructura del sistema.
En ingeniería industrial el desarrollo y solución de modelos matemáticos forma parte del área de estudio de una disciplina llamada investigación
de operaciones. El nombre proviene de los orígenes de la investigación de
operaciones, durante la Segunda Guerra Mundial, cuando se desarrollaron
modelos matemáticos para optimizar la logística militar. A partir de entonces el uso de modelos matemáticos se ha extendido a muchas otras áreas,
incluyendo aplicaciones a las industrias de manufacturas y de servicios, así
como a ramas de la ciencia como la Biología y la Economía, entre otras.
16.4 Introducción a la programación lineal
La programación lineal (PL) es un tipo de modelo matemático que plantea
el problema de encontrar los valores que puede tomar un conjunto de variables de decisión, para maximizar (o minimizar) una función lineal de las
variables de decisión, satisfaciendo un conjunto de restricciones lineales.
Para ser más precisos, si denotamos por x1, x2, …, xn a las variables de decisión, una función lineal de estas variables de decisión tiene la forma
a1x1 + a2x2 + … + anxn
donde a1, …, an son constantes (reales) conocidas. Similarmente, una restricción lineal es una expresión que al lado izquierdo tiene una función lineal, seguida de alguno de los tres símbolos: “ ”, “ ” o “”, y al lado derecho tiene un número (real) conocido. Por ejemplo,
a11x1 + a12x2 + … + a1nxn
b1
es la forma general de una restricción por desigualdad . En consecuencia,
un problema de programación lineal (PPL) puede formularse (escribirse)
siguiendo la estructura descrita en la figura 16.3.
Una solución factible de un PPL es un conjunto de valores para las variables de decisión que satisface todas las restricciones simultáneamente, y
16.4 Introducción a la programación
469
una solución óptima es una solución factible que proporciona el mejor valor para la función objetivo. Una aplicación importante de la PL es la asignación óptima de recursos limitados. Como hemos mencionado, un modelo de PL se compone principalmente de dos partes:
1. Una función objetivo que expresa matemáticamente la ganancia
que se quiere maximizar o el costo que se quiere minimizar.
2. Las restricciones que debe cumplir cualquier solución que se quiera implementar. Estas restricciones pueden incluir, por ejemplo, el
uso de una cantidad limitada de recursos, la calidad de las soluciones o ciertas proporciones que se deben respetar.
Ejemplo de un problema de PL
Un ingeniero de producción desea conocer la cantidad óptima a producir,
en cierto día, de cada uno de dos productos (Producto 1 y Producto 2), de
tal forma que se maximice la ganancia por las ventas. El proceso de producción consta de tres procesos: Proceso A, Proceso B y Proceso C.
El número de horas disponibles para cada proceso en el día depende
del número de recursos disponibles en cada proceso, así como de las horas
de descanso y de mantenimiento programadas. El ingeniero de producción
ha encontrado que el número de horas disponibles en el día para cada proceso son: 18, 6 y 24, respectivamente.
Los requerimientos de producción dependen del tipo de producto. La
producción de una unidad de Producto 1 requiere 2 horas del Proceso A y
2 horas del Proceso C, mientras que la producción de una unidad de Producto 2 requiere 1 hora del Proceso B y 3 horas del Proceso C.
Cada unidad de Producto 1 producida representa una ganancia de $3,
mientras que cada unidad de Producto 2 producida representa una ganancia de $5.
Formulación de un modelo de PL:
Paso 1. Identificar y definir las variables de decisión. En este caso, la incógnita es el número de unidades de cada tipo de producto a producir en el día.
Por lo tanto, la definición de las variables de decisión es:
x1: Número de unidades de Producto 1 a producir en el día.
x2: Número de unidades de Producto 2 a producir en el día.
Paso 2. Definir la función objetivo y expresarla como una función lineal. El
problema plantea que se desea encontrar la mezcla óptima de producción
de productos tipo 1 y 2 tal que se maximice la ganancia. Dado que las variables de decisión indican la cantidad a producir de cada tipo de producto, la
función que representa la ganancia total está dada por: 3x1 5x2. Para completar el planteamiento de la función objetivo se debe indicar el sentido de
la optimización de la función: maximizar (Max) o minimizar (Min). Ade-
470
Capítulo 16
Modelado y optimización
más, el valor de la función objetivo (en este caso, la ganancia total) puede
considerarse como otra variable (por ejemplo, Z). Por lo tanto, la función
objetivo del problema actual es:
Max Z 3x1 5x2
Paso 3. Identificar las restricciones y expresarlas como restricciones lineales. El problema actual sugiere que las principales restricciones son las horas disponibles de cada proceso. Si no existieran esas restricciones, no existiría un límite para la ganancia (lo cual, probablemente no tiene sentido en
la práctica). Sin embargo, los recursos limitados obligan a no exceder la
disponibilidad de esos recursos. En este caso, existen tres procesos de producción y cada uno representa una restricción en el modelo de PL:
•
•
•
Restricción 1: Disponibilidad del Proceso A.
Restricción 2: Disponibilidad del Proceso B.
Restricción 3: Disponibilidad del Proceso C.
Cada restricción se formula como una restricción lineal, y el lado izquierdo
de cada restricción representa la cantidad de horas totales consumidas de
cada proceso (dada la mezcla sugerida por las variables de decisión). Además, se debe especificar que esa cantidad de horas no debe exceder la capacidad disponible. Por lo tanto, las restricciones del modelo actual son:
2x1
x2
2x1 3x2
18
6
24
Observe que en las restricciones 1 y 2 sólo aparece una variable de decisión.
Esto se debe a que la producción del Producto 1 no requiere del Proceso B
y la producción del Producto 2 no requiere del Proceso A.
Paso 4. Definir otras restricciones. Además de las restricciones de disponibilidad de recursos, puede existir otro tipo de restricciones; por ejemplo,
alguna relacionada con proporciones a respetar en la mezcla de productos.
También se deben especificar algunas restricciones que tienen que ver con
los intervalos de las variables de decisión. Para el problema en cuestión,
debido a que no se puede producir una cantidad negativa de productos, se
determina que las variables de decisión pueden tomar únicamente valores
no negativos, es decir:
x1
0 y x2
0
la formulación completa del PPL queda entonces como:
Max Z 3x1 5x2
471
16.5 Solución de un PPL con dos variables de decisión
Sujeto a:
2x1
18
x2
6
2x1 3x2
24
x1 0 y x2 0
16.5 Solución de un PPL con dos variables
de decisión
Un método para resolver un problema de PL con dos variables de decisión
es el método gráfico. Este método consiste en graficar en un plano cartesiano, tanto las restricciones como la función objetivo. Los ejes del plano
cartesiano representan las variables de decisión.
Dado el modelo del problema anterior, debido a las restricciones de no
negatividad sobre las variables de decisión se utiliza sólo el primer cuadrante del plano cartesiano. La figura 16.5 muestra la representación de la
primera restricción, donde los valores permitidos de x1 están a la izquierda
de la recta x1 = 9 (identificada como R1).
La segunda restricción establece que los valores permitidos de x2 son
menores o iguales que 6, como se muestra en la figura 16.6.
Finalmente, se agrega la tercera restricción a la gráfica, tal como se
muestra en la figura 16.7. Una de las formas de graficar una restricción li-
x2
R1
15
14
13
12
11
10
FIGURA 16.5 Representación de la primera restricción
del modelo
x1
10 11 12 13 14 15
472
Capítulo 16
Modelado y optimización
x2
R1
15
14
13
12
11
10
R2
FIGURA 16.6 Representación de la primera y segunda
restricciones del modelo
x1
10 11 12 13 14 15
neal de dos variables (una línea recta) es uniendo dos puntos por donde
pasa la línea recta. Por lo tanto, para graficar la tercera restricción se pueden obtener los valores de x1 y x2 que cruzan los ejes haciendo x2 0 y
x1 0, respectivamente.
Todos los puntos sobre la línea que representa una restricción corresponden a los valores de las variables de decisión que llevan la restricción a
la igualdad con su lado derecho. Las flechas indican la región hacia donde
están los valores permisibles de las variables de decisión para cada restricx2
R1
15
14
13
12
11
10
R2
R3
FIGURA 16.7 Representación de las
tres restricciones del modelo e identificación de la región factible
x1
10 11 12 13 14 15
473
16.5 Solución de un PPL con dos variables de decisión
x2
15
14
13
12
11
10
x1
FIGURA 16.8 Región factible
del problema y representación
de la función objetivo
10 11 12 13 14 15
Z = 30
Z = 15
Z=0
ción. A la intersección de las regiones permisibles de todas las restricciones
se le conoce como región factible, la cual aparece sombreada en la figura
16.7. La región factible contiene todos los valores de (x1, x2) que satisfacen
todas las restricciones simultáneamente. Por lo tanto, la solución óptima al
problema debe estar en esa área.
La función objetivo también es una función lineal que puede graficarse
en el plano cartesiano junto con las restricciones. Para graficar la función
objetivo se puede dar un valor arbitrario a Z y obtener los valores donde la
función atraviesa los ejes. La figura 16.8 muestra la región factible y la función objetivo para valores de Z iguales a 0, 15 y 30.
Observe que las tres líneas que representan la función objetivo son
paralelas entre sí y que entre más grande sea el valor de Z, más se aleja la
línea del origen. Entonces, el valor óptimo para este problema corresponde
a la línea de la función objetivo que produce la Z más grande mientras toca
al menos un punto de la región factible.
Usando distintos valores para la función objetivo y alejándose del origen, se puede observar que el último punto en que la función objetivo toca
a la región factible es en, al menos, un vértice. Por lo tanto, la solución óptima a un problema de PL se puede encontrar en alguno de los vértices que
forman la región factible. La región factible del problema actual contiene
cinco vértices: A, B, C, D y E, como se muestra en la figura 16.9.
474
Capítulo 16
Modelado y optimización
x2
15
14
13
12
11
10
B:(0, 6)
C:(3, 6)
D:(9, 2)
FIGURA 16.9 Identificación
de las soluciones factibles
en los vértices
E:(9, 0)
A:(0, 0)
x1
10 11 12 13 14 15
Para encontrar la solución óptima de un problema de PL, basta con
evaluar la función objetivo en cada uno de los vértices de la región factible
e identificar aquel que maximiza o minimiza el valor de Z. En el caso de un
problema de PL de dos dimensiones, los vértices se encuentran resolviendo
un sistema de dos ecuaciones (restricciones por igualdad que determinan
el vértice) con dos incógnitas (variables de decisión).
Por ejemplo, el vértice D resulta de la intersección de las restricciones
1 y 3. Por lo tanto, sus coordenadas son:
2x1
18 q x1 18/2 9
2x1 3x2 24 q x2 8 2x1/3 8 – 6 2
Tabla 16.1 Valor de la función objetivo en cada una de las soluciones factibles en los
vértices
Vértice
x1
x2
Z = 3x1 + 5x2
A
0
0
0
B
0
6
30
C
3
6
39
D
9
2
37
E
9
0
27
475
16.6 Terminología de PL
x2
15
14
13
12
11
10
x1
FIGURA 16.10 Identificación
de la solución óptima de un
PPL con dos variables de decisión.
10 11 12 13 14 15
Z = 39
La evaluación de las soluciones en los vértices se presenta en la tabla
16.1. La solución en el vértice C maximiza Z, por lo tanto, la solución óptima del problema es (3, 6). Esto significa que la mezcla diaria a producir
para maximizar la ganancia es de 3 unidades de Producto 1 y 6 unidades de
Producto 2, que generan una ganancia diaria de $39.
La figura 16.10 muestra la función objetivo con Z 39, cuyo último
vértice en tocar la región factible es (3, 6).
16.6 Terminología de PL
Los siguientes términos se utilizan en un PPL:
•
•
•
•
•
Variables de decisión: son las incógnitas del modelo cuyos valores óptimos se desean encontrar para maximizar o minimizar una
función objetivo.
Función objetivo: es la función lineal de las variables de decisión
que expresa el objetivo y que se debe maximizar o minimizar.
Restricciones: son ecuaciones o desigualdades lineales de las variables de decisión que representan restricciones particulares del
PPL. Las restricciones pueden ser de tipo , o .
Solución: es una combinación de valores para el vector compuesto
por las variables de decisión, por ejemplo (x1, x2, …, xn).
Solución factible: es una solución (x1, x2, …, xn) que satisface todas
las restricciones simultáneamente.
476
Capítulo 16
•
•
•
Modelado y optimización
Solución no factible: es una solución (x1, x2, …, xn) que no satisface al menos una restricción.
Región factible: es el conjunto de todas las soluciones factibles.
Solución óptima: es una solución factible que maximiza (minimiza) la función objetivo, es decir, ninguna otra solución factible proporciona un valor mayor (menor) en la función objetivo.
16.7 Caracterización de los modelos de PL
Problema con soluciones factibles pero sin solución óptima:
Max Z 3x1 5x2
Sujeto a:
18
0
2x1
x1 0 y x2
El modelo anterior cuenta con soluciones factibles, pero no con una
solución óptima, ya que la variable x2 puede crecer ilimitadamente, incrementando sin límite el valor de la función objetivo, como se muestra en la
figura 16.11. A este tipo de problemas de PL se les conoce como problemas
no acotados (del inglés unbounded).
Problema sin solución factible:
Max Z 3x1 5x2
x2
R1
15
14
13
12
11
10
FIGURA 16.11 Ilustración de un
problema con soluciones factibles, pero sin solución óptima
x1
10 11 12 13 14 15
477
16.7 Caracterización de los modelos de PL
x2
15
14
13
12
11
R2
10
R1
FIGURA 16.12 Ilustración de
un problema sin soluciones
factibles
x1
10 11 12 13 14 15
Sujeto a:
2x1 3x2
x1 x2
x1
0 y x2
24
14
0
El modelo anterior, cuyas restricciones se ilustran en la figura 16.12, contiene dos restricciones que no se pueden satisfacer simultáneamente. Por lo
tanto, el modelo tampoco tiene solución óptima. A este tipo de problemas
de PL se les conoce como problemas no factibles (del inglés unfeasible).
Problema con múltiples soluciones óptimas:
Max Z 4x1 6x2
Sujeto a:
2x1
x2
2x1 3x2
x1 0 y x2
18
6
24
0
El modelo anterior es un ejemplo de un problema de PL con múltiples
soluciones óptimas, ya que la función objetivo es paralela a la última restricción que toca al alejarse del origen, tal como se muestra en la figura
16.13.
478
Capítulo 16
Modelado y optimización
x2
15
14
13
12
11
10
A:(3, 6)
B:(9, 2)
x1
FIGURA 16.13 Ilustración de
un problema con múltiples soluciones óptimas
10 11 12 13 14 15
Z = 48
La tabla 16.2 muestra la evaluación de la función objetivo en las soluciones factibles correspondientes a los vértices A y B. Esta tabla muestra,
entonces, que las dos soluciones factibles en dichos vértices son óptimas.
Asimismo, cualquier solución sobre la línea que conecta los dos vértices
también es óptima.
Cualquier otra solución óptima, C, se puede obtener con una combinación convexa de las dos soluciones que corresponden a los vértices, es
decir:
x1C ax1A (1 a)x1B
x2C ax2A (1 a)x2B,
F
donde: 0
1
Por ejemplo, si a 0.5, se obtiene la solución óptima C (6, 4), que también produce Z 48.
Tabla 16.2 Evaluación de la función objetivo en las soluciones factibles que
corresponden a dos vértices que son óptimos
Vértice
x1
x2
Z = 4x1 + 6x2
A
3
6
48
B
9
2
48
479
16.7 Caracterización de los modelos de PL
Problema cuya región factible es un segmento de línea:
Max Z 3x1 5x2
Sujeto a:
2x1
18
x2 6
2x1 3x2 24
x1
0 y x2 0
La región factible del problema anterior es el tramo de línea que conecta los vértices A y B, según la figura 16.14. Por lo tanto, las únicas dos soluciones factibles que corresponden a un vértice son (3, 6) y (9, 2), que producen valores de Z de 39 y 37, respectivamente. Entonces, la solución dada
por el vértice A es la solución óptima.
Problema de minimización:
Min Z 3x1 5x2
Sujeto a:
2x1
2x1
x1
x2
3x2
0 y x2
18
6
24
0
x2
R1
15
14
13
12
11
10
R3
A:(3, 6)
R2
B:(9, 2)
FIGURA 16.14 Ilustración de
un problema donde la región
factible está sobre una línea
x1
10 11 12 13 14 15
480
Capítulo 16
Modelado y optimización
Aceptación
Emisión
de cheque
Aceptación
Revisión
CA
Inicio
Módulo de
información
Rechazo
Revisión
CB
Fin
CA
CB
Módulo de
devolución
Rechazo
Rechazo
Revisión
rápida (CR)
FIGURA 16.15 Ilustración de un problema de minimización
Regularmente, los problemas de minimización incluyen, al menos, una
restricción de tipo o , tal que la región factible no incluya al origen. De
acuerdo a la figura 16.15, la región factible de este problema contiene tres
soluciones factibles que corresponden a algún vértice.
La evaluación de las soluciones factibles en los vértices se muestra en
la tabla 16.3. Ya que la función objetivo es de tipo minimizar, la solución
óptima corresponde a la solución del vértice C.
16.8 Análisis de sensibilidad
El análisis de sensibilidad permite determinar el intervalo en el que pueden
variar alguno
Related documents
Download