Domingo, 31 de mayo de 2015 Demostración de la fórmula aplicada a los Tiempos Esperados
Msc. Pedro Antonio Ruiz Martinez Centro de Investigación y de Estudios Avanzados Universidad Nacional de Educación a Distancia Centro de Altos Estudios Universitarios Universidad Politécnica de Valencia Universidad Riviera
Comprender el uso o aplicabilidad aplicabilidad de la relación de deducibilidad es apropiado prestar atención a cómo funciona en las teorías axiomáticas, porque éstas son las mejores organizadas. Una teoría axiomática puede definirse como un tejido que cuelga de sus supuestos iniciales. Estos supuestos son un manojo de fórmulas relativamente ricas y precisas (proporciones (proporciones y/o funciones proporcionales), proporcionales), entendidas como axiomas o postulados, los cuales satisfacen la condición de unidad conceptual. Como subgrupos pertenecientes a los axiomas encontramos todas las demás hipótesis de la teoría; conocidas como teoremas de la misma aunque ésta tenga contenido factual o de los hechos, al entender como término “teorema”, de manera similar al término “axioma”, los cuales indican indican estatutos lógicos con independencia de contenido. En una teoría completamente axiomatizada todos los teoremas pueden derivarse de los supuestos iniciales por medios puramente formales (lógicos o matemáticos), o sea, mediante la aplicación de las reglas de la inferencia deducida. Es decir: dados los axiomas de la teoría y las reglas de inferencia presupuestas por la teoría (o sea, los subyacentes sistemas de lógica y matemática), todos los teoremas quedan unívocamente determinados, aunque ninguno de ellos se haya derivado aun efectivamente. La predeterminación lógica es la única efectiva, y es peculiar a las teorías axiomáticas.
En la ciencia formal un axioma o postulado es un supuesto no demostrado cuya función consiste en permitir la demostración de otras fórmulas de la teoría. En la ciencia factual un axioma es también una fórmula sin demostrar y sirve para demostrar otros enunciados, pero su introducción está justificada en la medida en que esos otros enunciados (las teorías) quedan convalidados de un modo u otro por la experiencia. La tarea más ambiciosa que puede plantearse un teórico es la de inventar un conjunto axiomático para cubrir totalmente un campo dado de conocimiento << otra cuestión es la de si ese objetivo puede >>. Ninguna acumulación de datos observacionales, por enorme que sea, le solucionará esa activialcanzarse íntegramente >>. dad: la información empírica es precisamente lo que él desea explicar, y, por tanto, aunque funcionará como estímulo y como control de la construcción de teorías, no podrá ser nunca ni su fuente ni siquiera su gua. Todo lo que puede hacer el teórico para inventar una buena teoría es explotar al máximo máx imo lo que le suministre su herencia genética y cultural.
Una vez establecidos los axiomas de la teoría, el teórico puede: Derivar de ellos nuevos teoremas. Establecer conexiones con otros campos de la investigación. Intentar modificar algunos de los axiomas, con objeto de obtener un sistema más compacto, o más económico, o más rico. Intentar especificar la significación factual y/o empírica de los axiomas, si la tienen.
En caso contrario, dado un conjunto de resultados parciales más o menos inconexos de la investigación, por ejemplo, las varias generalizaciones referentes referentes a la estructura nuclear, antes de introducirse el modelo actual, la t area del teórico consistirá en introducir – inventar una inventar una base axiomática a partir de la cual aquellos resultados puedan derivarse, o sea, convertirse en teoremas. Una vez inventada una tal base, puede esperarse que resulten derivables nuevas proposiciones proposiciones antes desconocidas – si los axiomas existieran por sí mismos en un platónico reino de las ideas, o si cualquier fórmula surgiera por sí misma el conjunto de postulados a partir del cual puede derivarse, podríamos hablar de descubrimiento de axiomas. Pero como los axiomas no están ya confeccionados y listos para llevar, ni están nunca unívocamente determinados por las preexistentes fórmulas de nivel inferior, no debemos vacilar en hablar de invención o creación de axiomas –.
Con base en lo anterior, el método deductivo presenta por lo demás dos modalidades de aplicación que dependen del tipo de juicio científico que se maneje en cada caso.
Domingo, 31 de mayo de 2015 En las ciencias formales – en la matemática, por ejemplo – se emplean juicios necesariamente verdaderos – los juicios analíticos de Kant –, cuya verdad no depende tanto de la experiencia, y la sucesiva superposición deductiva de esos juicios – unos como axiomas y otros derivados de ellos como teoremas – constituye el método axiomático – deductivo. Se trata en este caso de un razonamiento resuelto en términos exclusivamente lógicos, sin contaminación empírica alguna. Por el contrario, las ciencias empíricas – la física o, como añadiría sin dudarlo cualquier partidario de la cuantificación, la geografía, la estadística, la lógica y la probabilidad, por ejemplo – emplean juicios contingentemente verdaderos – a los que Kant consideró juicios sintéticos –, juicios cuya verdad sólo puede establecerse mediante la oportuna comprobación de su relación con la experiencia. En estas ciencias empíricas es donde se aplica el método hipotético – deductivo: de las premisas que constituyen las hipótesis iniciales se deducen lógicamente una serie de conclusiones que permiten a su vez establecer predicciones. De ese modo pueden articularse las teorías científicas, teorías que en todo caso deben ser sistemáticamente sometidas a la contrastación empírica: “la teoría extraída a partir de un conjunto de hipótesis – escribe, por ejemplo, Muguerza en “La razón sin esperanza” – se somete al test de la experiencia, bien sea esperando que ésta la confirme, bien sea buscando – según la práctica más usual de los científicos – su refutación por la misma”, de modo que “una teoría científica se hallará tanto más acreditada cuantas más veces supere con éxito nuestros intentos de refutarla mediante hechos; por ello, se requiere que la teoría en cuestión sea, al menos en principio, refutable, pues si no hubiera posibilidad de refutación tampoco podría haber la de confirmación”. Ahora consideremos la interrogante expresada a continuación: “¿Cuál es la variabilidad potencial en la fecha esperada de terminación del proyecto?” hasta este momento, hemos estado actuando como si los tiempos de actividades y los valores derivados del Tiempo de inicio más próximo (TIP), el Tiempo de inicio más lejano (TIL), el Tiempo de terminación más próximo (TTP) y el Tiempo de terminación más lejano (TTL) fuesen todos determinísticos. Sin embargo, esto no puede ser estrictamente correcto1. Con base en ello, PERT emplea una fórmula especial para estimar los tiempos de actividades. Ahora presentamos los detalles, y al hacerlo veremos que el método PERT puede emplearse de igual forma para calcular la probabilidad de que el proyecto sea terminado en cualquier fecha particular. El sistema PERT para estimar los tiempos de las actividades requiere individuos que conozcan las actividades lo bastante bien como para generar tres estimaciones del tiempo para cada actividad: Tiempo optimista (a): el tiempo mínimo. Todo tiene que salir perfectamente para lograr este tiempo. Tiempo más probable (m): el tiempo más factible. El tiempo requerido bajo circunstancias normales . Tiempo pesimista (b): el tiempo máximo. Una versión de la ley de Murphy es que si algo puede salir mal, saldrá mal. El tiempo pesimista es el tiempo requerido cuando la Ley de Murphy entra en vigor . El desarrollo original del método PERT – finales de los años cincuenta –, el procedimiento para estimar el valor esperado de los tiempos de actividad estaba motivado por la hipótesis de que el tiempo de actividad era una variable aleatoria2 con una distribución de probabilidad en particular. Esta distribución (distribución beta) cuenta con un valor mínimo y uno máximo, a diferencia de la distribución normal, la cual presenta un rango de valores infinito. También es capaz de asumir gran variedad de formas, de nuevo en oposición con la distribución normal, que es siempre simétrica alrededor de su valor más probable. El primer trabajo en el que se habla del método de las dos distribuciones Beta y de su aplicación a la valoración de Tierras es el artículo de Ballestero, E. (1971). En el mismo, en la p. 226, el autor afirma: «Es frecuente que las estadísticas de transacciones indiquen un precio mínimo, un precio máximo y un precio normal (moda dela distribución de precios) ... Las mismas razones que aconsejan el uso de la distribución Beta en el cálculo de tiempos medios de las actividades de un PERT, aconsejan también el uso de dicha distribución en el problema que nos ocupa» , y a continuación presenta una aplicación del método a la concentración parcelaria. Este primer trabajo es, sin duda, el origen de otros posteriores a los que se hará referencia más adelante.
El «Método de las dos Betas» fue formalmente presentado por Ballestero, E. (1973), como mejora del método sintético que como se sabe está basado simplemente en la proporcionalidad entre el precio de la parcela y el valor de un índice.
1
Ver tema: “Gestión de proyectos – representación de proyectos en grafo PERT. Dirección de operaciones. Ver tema: “Modelos Continuos de probabilidad – Densidades de probabilidad especiales – variables aleatorias discretas y distribuciones de probabilidad”. Estadística matemática – Estadística descriptiva y distribuciones de probabilidad – investigación de operaciones. 2
Domingo, 31 de mayo de 2015 Como mejora de este método sintético en la literatura americana y europea también se había usado el análisis de regresión, relacionando ciertas variables explicativas (exógenas) con el precio de mercado (endógena) y estimando una función lineal a partir de los datos empíricos disponibles. En una serie de trabajos, Sasieni (1986), Moitra (1990), se ha expresado la imposibilidad de determinar los cuatro parámetros de una distribución beta: a, b, p & q), a partir de, las ya clásicas, tres estimaciones parciales. La estimación optimista – en el PERT tiempos – se considera igual al parámetro “a” – extremo inferior del intervalo de variación –, la pesimista se considera igual al parámetro “b” – extremo superior del intervalo – y con la estimación más probable, que se considera igual a la moda de la distribución, sólo se obtiene una relación lineal entre los parámetros “p & q”. De esta manera, es precisa la información adicional para determinar esos parámetros, y esa información puede provenir de hipótesis simplificadoras, como es el caso del PERT clásico, o puede recabarse del experto. Si nos decidimos por este segundo caso, las preguntas a formular al perito han de reunir un equilibrio entre una interpretación muy intuitiva, lo que hace posible la obtención de respuestas fiables, y una cómoda incorporación de la información así obtenida en el armazón teórico de la distribución adicional. Ballestero, E. (1973), dentro de la línea sintética describe el método de las dos Betas en la forma siguiente: «La variable valor de mercado de un bien obedecerá estadísticamente a la función de distribución F . Por su parte, el índice, parámetro o variable explicativa obedecerá estadísticamente a otra función de distribución G. Suponemos que las funciones F y G tienen forma de campana o similar, entonces el método de las dos Betas establece una relación entre ambas variables».
Para ello es preciso adoptar la siguiente hipótesis: Si el índice Li de un activo Fi es mayor que el L j de otro activo F j, el valor de mercado Vi correspondiente al primer activo será también mayor que el valor de mercado V j correspondiente al segundo. A partir de ello, conocida la distribución F del valor de mercado y la G del índice, el valor de mercado Vk correspondiente a un índice Lk se establece mediante la transformación: (I)
La dificultad del método está en conocer la forma de la función ø. En su trabajo, Ballestero, E. (1973) advertía que para aplicar el método de las dos Betas es preciso disponer de unas tablas de la función de distribución de la Beta, y afirmaba literalmente: «La aplicación práctica del método requiere la utilización de unas tablas que esperamos preparar en breve». La forma que adopten F y G van a determinar la dificultad que supone encontrar ø, ya sea mediante tablas (como en el caso de la Beta) o analíticamente si suponemos otros casos. Caballer, V. (1975) expone detalladamente un método y realiza una aplicación práctica mediante el uso de tablas estadísticas, supone para el índice G una Beta de parámetros: (II)
= + √
=
√
Como moda (III)
=
y a partir de “a” (valor optimista), “b” (valor pesimista) y “m” (valor más probable), determina: (IV) y de ahí calcula “p” y “q”; esto le permite ir a las tablas. Basta con repetir la operación con el valor (F).
=
√ () ()
Domingo, 31 de mayo de 2015 El trabajo de Romero, C. (1977) extendiendo el caso de las dos Betas con el uso de otras funciones de distribución para F y G (Triangular y Uniforme), viene a resolver el problema de la utilización práctica, de tal modo que el propio autor de la idea original afirma (Ballestero 1991a, p. 337): «El método de las dos Betas se llama también método de comparación de funciones de distribución»; y en la misma obra, p. 338, sentencia que entre las distribuciones posibles de F y G las mejores son la Beta y la Triangular . Romero, C. (1977) justifica el uso de la distribución triangular en lugar de la Beta, basándose en las siguientes razones: a) Una distribución triangular está perfectamente determinada cuando se conoce la moda y los extremos, la Beta3 b) Apoyándose en un trabajo de MacRimmon y Ryavec (1964), puede afirmarse que los errores cometidos al usar la distribución Beta son aproximadamente de la misma magnitud que los cometidos al usar la triangular.
c) El uso de la triangular permite obtener unas fórmulas que directamente nos dan el valor del activo a partir del valor del índice, si el valor del activo y el del índice son ambos menores que sus modas.
= +
( ) ′)( ′) ( )( )
Y cuando ambos valores, es decir el valor del índice y del activo se encuentran ambos a la derecha de la moda:
=
( ) ( )( ) + ( )( )
Además, se estudia el caso en que ambas funciones de distribución son uniformes, muy útil cuando se dispone de pocos datos y no es posible estimar la moda, obteniéndose una relación:
( )( ) =+ y el caso en el que el índice sigue una distribución triangular y el Valor de Mercado una Uniforme. Para establecer estas fórmulas de nuevo hay que distinguir si el Índice está a la izquierda o la derecha de su moda.
Evidentemente, el problema de PERT es que para determinar la Beta con los datos a, b , y m es necesario suponer que la
3
=
(
) . Véase Figueras (1964), esta familia de betas, que es la del PERT clásico, no coincide necesariamente con
la familia determinada por la restricción impuesta por Caballer, es decir, elegir p = h –√2 y q = h + √2.
Domingo, 31 de mayo de 2015 Ballestero, E. y Caballer, V. (1982) recogen en su trabajo todo el desarrollo mencionado anteriormente, y sobre lo que ellos llaman la variante del triángulo comentan la ventaja de disponer de una fórmula. Afirmando, como en el caso de la Beta, que no es necesario exigir la proporcionalidad del Índice del Mercado y del Valor del Activo. Desde entonces, este método de valoración sintética del activo ha aparecido en los libros de texto y en manuales de economía, entre otros el texto de Ballestero, E. (1991a), el de Caballer (1975), el de Caballer, V. (1994), y el de Ballestero, E. (1991b). Ahora bien, dentro de la metodología PERT se trabaja con distribución beta de forma acampanada, esto es, con parámetros “p” y “q” estrictamente mayores que 1, cuyas características vienen dadas por:
=
+ + +
(1)
+ + +
(2)
=
( ) = (++)(+)
(3)
De las fórmulas anteriores, utilizamos el parámetro “K”, el cual se encuentra definido como K = p + q – 2, podemos calcular otro par de fórmulas, las cuales quedan establecidas de la siguiente manera:
= + = +
(4)
Estas fórmulas tienen la virtud de indicar claramente la existencia de una infinidad de modelos beta, sobre el mismo intervalo (a, b), con la misma moda “m”. Para cada valor de “K”, y puede tomar todos los valores del intervalo (0, +), con base en ello, existe una distribución beta distinta que satisface esos tres requisitos, cuya media y varianza se encuentran dadas por:
=
++ +
(5)
( )( ) + ( + )( ) = (+)(+)
(6)
Véase Golenko-Ginzburg (1988) y Herrerías (1989).
Si se pudiese solicitar al experto información sobre este parámetro “K” estaría resuelto el problema de la individualización de un único modelo, pero desafortunadamente, al no tener dicho parámetro una interpretación intuitiva, ello no es posible. Si además de la moda y la media de la distribución, dadas por las fórmulas:
=
+
=
+ + +
Domingo, 31 de mayo de 2015 Se considera el centro del intervalo (a, b), c = (a + b)/2, de forma fácil podemos comprobar que:
<
Þ
<
<
>
Þ
<
<
=
Þ
=
=
En otras palabra, cuando el experto proporciona las tres estimaciones, a, b y m, si resulta que m = c entonces se tiene la certeza de que la media, ha de coincidir. Con lo anterior, podemos realizar un ajuste de un modelo beta con la moda, m. en caso contrario, si m no coincide con el centro del intervalo entonces la media , ha de estar comprendida entre c y m, sin entrar en consideraciones sobre cuál de los dos es mayor, y por tanto puede expresarse como combinación lineal convexa entre ellos:
= + (
)
Para realizar una interpretación y graduación del parámetro
∈ (,)
(7)
realizamos lo siguiente:
El coeficiente α de la fórmula (7) tiene una cómoda interpretación intuitiva, indica la proximidad entre m y (cuanto mayor sea α mayor será la proximidad entre ambos puntos), que se ve reforzada por el hecho de que sólo pueda tomar valores entre 0 y 1.
Al estar definida la distribución beta sobre un intervalo finito y por tanto no tiene colas, la mayor o menor proximidad entre esas dos medidas de posición central es, de alguna forma, un indicador del mayor o menor apuntamiento de la distribución. De forma gráfica, la anterior situación se ve reflejada en la figura siguiente… Como podemos apreciar, una vez fi jado el intervalo de variación (a, b), y fijada la moda m, el modelo beta puede ir desde una distribución D1, muy parecida a la uniforme, con un máximo muy suave en m, cuya media estaría muy próxima al centro del intervalo, hasta una distribución D2, prácticamente degenerada, que presenta un máximo muy abrupto en m, y cuya media está muy próxima a m. Podemos concluir, al expresar que el coeficiente α puede considerarse como un indicador del mayor o menor apuntamiento de la distribución. Aprovechando que sólo toma valores en el intervalo (0,1), podemos establecer una graduación del apuntamiento en las siguientes situaciones: muy bajo, bajo, medio, alto y muy alto, sin más que considerar cinca puntos igualmente espaciados dentro del rango de variación, p.e. 1/6 – 2/6 – 3/6 – 4/6 – 5/6.
Domingo, 31 de mayo de 2015 Para obtener esta información bastaría con presentarle al experto los cinco modelos que incluimos a continuación, y pedirle que elija aquel que considera más adecuado (todas las figuras corresponden a distribuciones beta sobre el mismo intervalo (a, b) y con la misma moda m, sólo difieren en la curtosis4).
4
Es una medida de las llamadas “de forma” que cuantifica lo esbelta o aplanada que resulta una distribución de probabilidad (versión poblacional) o su equivalente cuando se refiere a un conjunto de datos (versión muestral). Se toma como referencia el valor que corresponde a la distribución normal. Si una distribución tiene una curtosis mayor que la Normal hay que interpretarlo como que su parte central es más picuda (con más “apuntamiento”) que una Normal con su misma desviación tipo, y si el valor es menor será más plana, lo cual se traduce en que sus colas son más “pesadas”, es decir, que es más probable encontrar valores alejados de la media .
Domingo, 31 de mayo de 2015 Esta forma de proceder elude la formulación de preguntas del tipo: “La moda m que Valor de distribución ha facilitado ¿es mucho más verosímil que otros valores cercanos?”, y logra facilitar una respuesta más fiable por parte del experto. Por lo anterior, se establece la relación entre los parámetros α y K. Al tomar las fórmulas siguientes:
= = + ( Se obtiene:
=
++ +
)
(5)
∈ (,)
(7)
= (+)
(8)
En la tabla que se incluye a continuación, para cada respuesta cualitativa, aparecen los valores correspondientes de los parámetros α y K, así como las características aleatorias de la distribución beta, obtenidas a partir de las fórmulas siguientes:
=
++ +
( )( ) + ( + )( ) = (+)(+)
Domingo, 31 de mayo de 2015 BIBLIOGRAFÍA Alfalla Luque, Rafaela. Et al. (2008). Introducción a la dirección de operaciones táctico-operativa: un enfoque práctico. Madrid. Delta Publicaciones. ALONSO, R. y LOZANO, J. (1985): «El método de las dos funciones de distribución: una aplicación a la valoración de fincas agrícolas en las comarcas Centro y Tierra de Campos (Valladolid)». Anales del INIA, Economía, 9: pp. 295 -325. 1985. BALLESTERO, E. (1971): «Sobre la valoración sintética de tierras y un nuevo método aplicable a la concentración parcelaria». Revista de Economía Política. Abril, 1971: pp. 225-238. BALLESTERO, E. (1973): «Nota sobre un nuevo método rápido de valoración». Revista de Estudios Agrosociales, 85, octubrediciembre 1973: pp. 75-78. BALLESTERO, E. (1991a): Economía de la empresa agraria y alimentaria. Ediciones Mundi-Prensa. Madrid. BALLESTERO, E. y CABALLER, V. (1982). Il metodo delle due Beta. Un procedimento rapido nella stima dei beni fondiari. Genio Rurale, vol. 45 (6): pp. 33-36. BALLESTERO, E. (1991b): Métodos evaluatorios en Auditoría. Alianza Universidad. Madrid 1991. Capítulo 9: pp. 192-203. Eppen, G. D. (2000). Investigación de operaciones en la Ciencia Administrativa. México. Prentice – Hall. Gutiérrez Gonzáles, Eduardo. y Vladimirovna Panteleeva, Olga. (2014). Probabilidad y Estadística: Aplicaciones a la Ingeniería y Ciencias. México. Grupo Editorial Patria. HERRERÍAS, R. (1989): «Utilización de Modelos Probabilísticos Alternativos para el método PERT. Aplicación al Análisis de Inversiones». Estudios de Economía Aplicada. Secretariado de Publicaciones de la Universidad de Va lladolid: pp. 89-112. HERRERÍAS, R. y CALVETE, H. (1987): Una ley de Probabilidad para el estudio de los flujos de caja de una Inversión: pp. 279296. Libro Homenaje al profesor Gonzalo Arnaiz Vellando. INE. Madrid. HERRERÍAS, R. y Miguel, S. (1989): «Expresiones Alternativas para la Varianza de la Distribución Trapezoidal». Estudios de Economía Aplicada. Secretariado de Publicaciones de la Universidad de Valladolid: pp. 55-59. Herrerías, R. (1989), Utilización de Modelos Probabilísticos Alternativos para el Método PERT. Aplicaciones al Análisis de Inversiones. Estudios de Economía Aplicada. Secretariado de Publicaciones de la Universidad de Valladolid. Herrerías, R. y Pérez, E. (1991). Estimación de una Distribución Beta como Modelo para su Utilización en el Método PERT. V Reunión ASEPELT-España. Ed. La Caja de Canarias. Herrerías, R. (1995). Un Nuevo uso de las Tres Estimaciones Subjetivas del PERT. IX Reunión ASEPELT- España, pp. 411 – 416. Santiago de Compostela. Miller, Irwin. (2000). Estadística matemática con aplicaciones, 6ª ed. México. Pearson Educación. ROMERO, C. (1977): Valoración por el método de las dos distribuciones Beta: una extensión. Revista de Economía Política, 75: pp. 47-62. Madrid. ROMERO, C. (1989): Introducción a la financiación empresarial y al análisis de bursátil: p. 90. Alianza. Madrid. ROMERO, C. (1991): Técnicas de programación y control de proyectos. Ediciones Pirámide. Madrid.