Simio Case Studies

Estimación mono y multiobjetivo de los parámetros de un sistema de personal militar mediante optimización por simulación

Escrito por Simio Staff | 17-mar-2026 8:52:00

El desafío

por Lee Alan Evans, Ki-Hwan G. Bae y Arnab Roy (Universidad de Louisville)

Tal y como se presentó en la Conferencia de Simulación de Invierno de 2017

Se desarrolla un modelo de simulación de eventos discretos para representar un sistema de evaluación del desempeño de distribución forzada, incorporando la estructura, la dinámica del sistema y el comportamiento humano asociado con tales sistemas. El objetivo de este estudio es analizar el comportamiento humano y explorar un método para la validación del modelo que capture el papel de la antigüedad de los subordinados en el proceso de evaluación. Este estudio incluye experimentos de simulación que asignan funciones de caja negra que representan el comportamiento humano a los resultados de la simulación. La eficacia de cada función de comportamiento se basa en una función de respuesta multiobjetivo que es una función de suma de errores al cuadrado que mide la diferencia entre las salidas del modelo y los datos históricos. Los resultados de los experimentos demuestran la utilidad de aplicar técnicas de optimización de la simulación a la fase de validación de modelos del diseño de sistemas de simulación.

Antecedentes

El Ejército de los Estados Unidos utilizó diversas técnicas para reducir el número de efectivos del Ejército en servicio activo de más de 566.000 en 2010 a menos de 470.000 en 2016. Estas técnicas incluyeron juntas de separación involuntaria, juntas de jubilación anticipada, disminución de las adhesiones, disminución de las oportunidades de reenganche y disminución de las tasas de promoción. El análisis de las evaluaciones del desempeño fue fundamental para cada uno de estosmecanismos de conformación de fuerzas, con la excepción de la disminución de las adhesiones.

Las evaluaciones del rendimiento tienen una importancia significativa en las filas de oficiales debido a la Ley de Gestión del Personal de Oficiales de Defensa de 1980 (DOPMA). Esta ley, aprobada por el Congreso el 12 de diciembre de 1980, establece el número de oficiales en función del número total de efectivos del Ejército y, lo que es más importante, codifica elsistema de ascensos(Rostker et al. 1993). El sistema de ascensos ascendenteso descendentes se diseñó de forma que los oficiales son evaluados por juntas de ascensos y, si son seleccionados, avanzan en el escalafón en cohortes, determinadas generalmente por los años de servicio como oficial. Además, todo oficial que sea rechazado dos veces para ascender al siguiente rango se ve obligado a abandonar el servicio. La única excepción al mandato de separación es una disposición que permite lacontinuación selectivapara determinados oficiales, con la intención de que se utilice con moderación. Elsistema de promoción ascendente o descendentefacilita la estructura de rangos mostrada en la Figura 1, que también se estableció en el DOPMA.
Uno de los rangos más afectados por la reducción fue el de teniente coronel, que pasó de una tasa de ascensos de más del 91% en 2006 a una tasa de ascensos de solo el 60,2% en 2016. Un análisis de los resultados de la junta de ascensos muestra que los percentiles identificados en las evaluaciones son el mejor indicador de si un oficial fue ascendido. El sistema de evaluación del desempeño de los oficiales del Ejército de Estados Unidos es un sistema de distribución forzada que utiliza una comparación relativa de los oficiales dentro de un conjunto de calificaciones y obliga a los calificadores a dar las mejores evaluaciones a menos del 49% de sus subordinados (Department of the Army Headquarters 2015). Un análisis más detallado de los resultados de la junta de ascensos muestra que la antigüedad desempeña un papel importante a la hora de que un oficial reciba o no una evaluación máxima. Sin embargo, la función utilizada por los calificadores para clasificar y evaluar a los subordinados es desconocida (caja negra) y ruidosa debido a la priorización individual de la antigüedad por parte de los calificadores.

Figura 1: Patrón de desgaste inducido por ascensos prescrito en DOPMA (de Rostker et al., 1993).

Bibliografía relacionada

Para el diseño de este sistema de simulación, hemos revisado los métodos de planificación de recursos humanos, los sistemas de evaluación del rendimiento, la gestión del talento, la optimización de la simulación y la validación de modelos.

Bartholomew, Forbes y McClean (1991) definen laplanificación de la mano de obracomo "el intento de adecuar la oferta de personas a los puestos de trabajo disponibles para ellas". Wang (2005) clasifica las técnicas de investigación operativa aplicadas a la planificación de la mano de obra en cuatro ramas: modelos de optimización, modelos de cadenas de Markov, modelos de simulación por ordenador y gestión de la cadena de suministro mediante la dinámica de sistemas. Hall (2009) señala que la bibliografía existente sobre planificación de la mano de obra se encuadra en uno de estos tres temas principales: programación dinámica, modelos markovianos y programación por objetivos. Aunque las listas no son exhaustivas ni se excluyen mutuamente, clasificamos las técnicas existentes en las categorías de modelos de optimización, Markov y simulación.

Entre los primeros ejemplos de modelos de optimización se incluyen los modelos de programación dinámica que proporcionan un marco para la toma de decisiones sobre recursos humanos (Dailey 1958, Fisher y Morton 1968). Una aplicación de programación dinámica más reciente es la de Ozdemir (2013), que proporciona un orden de procesamiento de jerarquía analítica para la selección de personal. Bres et al. (1980) y Bastian et al. (2015) proporcionan modelos de programación de objetivos para analizar la dotación de oficiales y la combinación ocupacional en un horizonte temporal finito. Kinstler et al. (2008) utilizan un modelo markoviano para el Cuerpo de Enfermería de la Armada de EE.UU. con el fin de determinar el número óptimo de nuevos reclutas para resolver el problema del exceso de personal en los rangos inferiores con el fin de satisfacer las necesidades en los rangos superiores. Aunque los modelos de Markov pueden utilizarse como modelos independientes, es más habitual incorporarlos a modelos de optimización más amplios (Hall 2009, Zais 2014). Lesinski et al. (2011) y McGinnis, Kays y Slaten (1994) son ejemplos de simulación utilizada para modelar la mano de obra. El constructo de simulación desarrollado por Lesinski et al. (2011) se utiliza para determinar si el calendario y la duración de la formación inicial de oficiales apoyaban un nuevo modelo de preparación de unidades del Ejército. Del mismo modo, el modelo de simulación de eventos discretos de McGinnis, Kays y Slaten (1994) analiza la viabilidad de las políticas de personal propuestas que requieren una cantidad mínima de tiempo en asignaciones clave. Todos los métodos existentes se centran en el cumplimiento de los requisitos de forma agregada. Es decir, los modelos estiman los requisitos de acceso y entrada lateral basándose en el desgaste histórico, las promociones y el crecimiento previsto. Se presta muy poca atención a la modelización de los sistemas que identifican y seleccionan a las personas más cualificadas para cubrir las necesidades, en lugar de la medición binaria de si un puesto está ocupado o vacante.

Wardynski, Lyle y Colarusso (2010) definen el talento de los oficiales del Ejército de EE.UU. como la intersección de conocimientos, habilidades y comportamientos individuales. Dabkowski et al. (2010) señalan que la medición del talento de los oficiales es en gran medida conceptual, pero que las mediciones reales no son necesarias para analizar los efectos de la política sobre la retención del talento. Su modelo utiliza una puntuación de talento distribuida normalmente para analizar el impacto de múltiples patrones de desgaste en el talento de los altos mandos. Wardynski, Lyle y Colarusso (2010) demuestran que las fuentes de comisión con los requisitos de selección más estrictos producen oficiales de mayor rendimiento en los rangos superiores, lo que añade credibilidad al tratamiento de Dabkowski et al. (2010) del talento como un valor estático e innato.

Se sabe que los sistemas de evaluación del rendimiento tienen sesgos y errores inherentes. Los ejemplos de sesgo y error dentro de los sistemas de evaluación del rendimiento son difíciles de cuantificar, pero incluyen: los calificadores evalúan con más generosidad (indulgencia) o dureza (severidad) de la que merecen los subordinados, los calificadores forman opiniones positivas (halo) o negativas (cuerno) en torno a un número limitado de criterios, el rendimiento reciente pesa mucho (recencia), los calificadores elevan la calificación de los subordinados para quedar mejor ellos mismos (interés propio) y califican a los subordinados en relación con los demás en lugar de con los estándares de rendimiento (contraste/similitud) (Coens y Jenkins 2000, Carroll y Schneier 1982, Kozlowski, Chao y Morrison 1998). El físico y matemático W. Edwards Deming añade que el resultado del rendimiento individual depende de la estructura de un sistema (Elmuti, Kathawala y Wayland 1992). Los resultados de la evaluación del rendimiento dependen también de la estructura del sistema. La imprecisión en un sistema de evaluación del rendimiento se refiere a la medida en que el resultado de la evaluación difiere de la distribución real de los niveles de rendimiento en un grupo de empleados evaluados (Carroll y Schneier 1982).

La validación de un modelo de simulación con el fin de estimar la inexactitud en un sistema de evaluación del desempeño es una tarea no trivial. Law (2015) afirma que "la prueba más definitiva de la validez de un modelo de simulación es establecer que sus datos de salida se parecen mucho a los datos de salida que cabría esperar del sistema real". Existen numerosos métodos para la validación de modelos. Balci (1998) enumera 75 técnicas de verificación, validación y prueba de modelos, pero señala que la mayoría de los profesionales utilizan técnicas informales que se basan en el razonamiento humano y la subjetividad.

Planteamiento del problema

Kane (2012) señala que las evaluaciones suelen estar vinculadas al cargo, en lugar de basarse estrictamente en el rendimiento. Esto es más frecuente en las ramas que tienen puestosclave de desarrollo. Con el fin de mitigar el efecto de las asignaciones de los oficiales que influyen en la calificación asignada, utilizamos datos estrictamente para mayores de área funcional con homogeneidad de asignaciones. Un área funcional es una "agrupación de oficiales por especialidad técnica o habilidades distintas de un arma, servicio o rama que normalmente requiere una educación, formación y experiencia únicas", según el Cuartel General del Departamento del Ejército (2014).

Los oficiales reciben evaluaciones en cada asignación en las que se les califica en relación con sus compañeros, u oficiales del mismo rango. La figura 2 muestra el diagrama de flujo típico de un oficial del Ejército de Estados Unidos. Los oficiales entran en el sistema de evaluación y son asignados a un grupo de sus compañeros, conocido comogrupo de calificación. En general, cada oficial recibe una evaluación anual basada en su rendimiento en relación con los demás oficiales del mismo grupo de clasificación. Tras la evaluación, el funcionario permanece en el mismo grupo o es reasignado a un grupo diferente. La reasignación suele implicar un cambio físico de ubicación geográfica. Una vez que un funcionario ha pasado un tiempo determinado en el sistema, cinco años en el caso de la figura 1, sale del sistema. El expediente del oficial se presenta ante una junta de ascensos, compuesta por oficiales generales, que decide si el oficial continúa con el rango sucesivo o se ve obligado a abandonar el servicio militar.

Se prohíbe a los calificadores dar la máxima evaluación a más del 49% de los oficiales de su grupo. El objetivo de este mandato de distribución forzosa es proporcionar una diferenciación del rendimiento para las decisiones de gestión de personal. Los sistemas de evaluación del rendimiento de distribución forzosa aplicados a un pequeño número de empleados crean una identificación errónea del rendimiento. Mohrman, Resnick-West y Lawler (1989) afirman que los sistemas de distribución forzada sólo deben aplicarse a un grupo suficientemente grande de individuos, concretamente no menos de 50 empleados. La distribución binomial proporciona algunas ideas cuando se intenta cuantificar esta identificación errónea del rendimiento. Si Xesuna variable aleatoria que denota el número de funcionarios con el 49% más alto dentro de un grupo de calificación den funcionarios, y el rendimiento de los funcionarios es independiente, entonces XsigueBinomial(n, 0,49). Por ejemplo, sin = 15, E[Misidentifications] es ∑15, x=8 P(X= x)(x -7) = 0,9470. Sin= 100, E[Misidentifications] es ∑15, x=8 P(X= x)(x -7) = 0,9470.Cuandon = 100, E[identificaciones erróneas] es ∑100, x=50 P(X= x)(x -49) = 1,9893. Por lo tanto, si una población de 300 funcionarios se divide en 20 grupos de clasificación, cabría esperar 18,9405 (0,9470 x 20) identificaciones erróneas. Los mismos 300 funcionarios divididos en tres grupos de evaluación dan como resultado 5,9680 (1,9893 x 3) identificaciones erróneas esperadas. Otros factores que afectan a la precisión de las evaluaciones son la distribución del tamaño de los grupos de evaluación, la frecuencia de los cambios entre grupos de evaluación y el comportamiento humano dentro del sistema. Estos factores, aplicados a lo largo de varios años, hacen necesario el uso de técnicas como la simulación para cuantificar el error inducido por un sistema de evaluación del rendimiento de distribución forzada.

Figura 2: Diagrama de flujo básico del sistema de evaluación del rendimiento de los oficiales del ejército estadounidense.

La cuantificación del comportamiento de los evaluadores al clasificar y evaluar a los subordinados requiere la aplicación de métodos avanzados de validación de modelos. La figura 3 muestra que los oficiales tienen más probabilidades de recibir una evaluación superior a medida que aumenta su tiempo en el rango. La figura 4 muestra la distribución del número de evaluaciones máximas que reciben los comandantes durante un periodo de 5 años. El resultado de la simulación correspondiente a las distribuciones mostradas en las figuras 3 y 4 está sujeto a la función del evaluador utilizada para clasificar y evaluar a los subordinados dentro de cada grupo de clasificación, es decir, una función de caja negra. Los datos mostrados en la Figura 3 y la Figura 4 proceden de comandantes que se enfrentaron a juntas de promoción en 2015 y 2016, que tuvieron tasas de promoción del 60,4 % y el 60,2 %, respectivamente. La base de comparación del modelo es una media de estos dos años debido a su similitud y para centrar el modelo en las tendencias de evaluación actuales.

La contribución de nuestro estudio consiste en examinar un método para estimar esta función de caja negra utilizando la optimización por simulación. Construimos un modelo de simulación de eventos discretos y modificamos la función de clasificación utilizada para simular el comportamiento humano utilizando OptQuest y el procedimiento Kim-Nelson (KN), un método de optimización de simulación de clasificación y selección totalmente secuencial. Se evalúan los parámetros de varias funciones para determinar si se ajustan bien al comportamiento del evaluador.

Para evaluar el resultado, utilizamos una adaptación de la función de costeJ) que Ikonen y Najim (2002) presentaron en forma general:

La función de coste cuadrática de la Ecuación (1) asigna αkpesos a las diferencias al cuadrado entreKsalidasobservadas,y(k), y las predicciones del modelo, θTϕ(k). El objetivo es minimizar la función de costeJ conrespecto a los parámetros θcomo en la ecuación (2):

Figura 3: Porcentaje de comandantes que reciben la mejor evaluación por años de servicio (Fuente: Mando de Recursos Humanos del Ejército de EE.UU.). Figura 4: Número total de evaluaciones máximas recibidas por los comandantes durante un período de 5 años (Fuente: Mando de Recursos Humanos del Ejército de EE.UU.).

En la sección 4 se explica con más detalle el cálculo de la función de costes y los parámetros del sistema.

La solución

Descripción del modelo

Entrada del modelo y dinámica del sistema

El modelo de simulación se desarrolló en Simio y sigue el marco de la figura 2. Los agentes entran en el sistema a un ritmo uniforme y se les asigna un atributoQique representa el percentil de rendimiento inicial del agente, siendoQiUniforme(0,1). Los agentes se asignan aleatoriamente a grupos de clasificación. Anualmente, los agentes se clasifican y reciben una evaluación,Xi jdonde:

Después de cada evaluación, el funcionario cambia de grupo de clasificación con probabilidadp opermanece en el mismo grupo de clasificación con probabilidad 1 -p, simulando la dinámica de sistemas de los funcionarios que cambian de grupo de clasificación de forma regular. Variando el valor dep, cambiala cantidad media de tiempo que los funcionarios pasan en cada grupo. Un valor dep = 0,730 corresponde a una media de 16,42 meses en cada puesto, el tiempo medio en el puesto de los funcionarios que se enfrentaron a las juntas de ascensos en 2015 y 2016. Tras cinco años de recopilación de evaluaciones, los oficiales salen del sistema y su historial binario de evaluación del rendimiento se registra en un archivo de salida. En la Figura 5 se muestra un archivo de salida de simulación truncado.

Funciones de clasificación

Dadas las tendencias de los datos de la Figura 3, la propensión de los calificadores a otorgar una evaluación superior aumenta a medida que los agentes a los que califican aumentan en antigüedad. Por lo tanto, el procedimiento utilizado para clasificar a los agentes utiliza una combinación de percentil de rendimiento inicial combinado con una función del tiempo en el sistema. Lo anotamos como
Qti, donde Qti(Qi,t,α),t esel tiempo (años) del agente en el sistema, y αes un parámetro estimado que se utiliza para aplicar un peso al tiempo del agente en el sistema. Teniendo en cuenta el comportamiento de los calificadores, analizamos la bondad de ajuste
para las siguientes funciones crecientes:

Lineal:Qti=Qi+ αt(3)
Exponencial:Qti=Qi+ αt(4)
Potencial:Qti=Qi+ tα(5)

Salida

La figura 5 muestra el resultado de la simulación para una función de clasificación determinada. El análisis de cada función de clasificación consiste en su capacidad para reproducir los datos reales mostrados en las figuras 3 y 4. Antes de optimizar los parámetros de cada función de clasificación, es necesario determinar un dominio razonable para α. Para la ecuación (3),

Un α= 0 significa que la determinación de la clasificación del evaluador dentro del grupo de clasificación se basa únicamente en el percentil de rendimiento del agente al entrar en el sistema y el tiempo en el sistema no es un factor. Del mismo modo, un α= 0,4 significa que el tiempo que el agente lleva en el sistema es como mínimo 0,4 veces más importante queQicuandot = 1 y como mínimo dos veces más importante queQicuandot = 5 a la hora de determinar la clasificación dentro de un grupo de clasificación determinado. Por lo tanto, evaluaremos 0< α< 0,4 al optimizar la salida de la ecuación (3).

La eficacia de la ecuación (4) también puede evaluarse utilizando límites similares para α. Sin embargo, en la ecuación (4), 0< α<1 crea una función decreciente con respecto al tiempo en el sistema. Además, para que el tiempo del funcionario en el sistema tenga un mínimo de dos veces el peso deQien la determinación de la clasificación dentro de un grupo de clasificación dado para la Ecuación (4) cuandot = 5, α1,148. Por lo tanto, limitamos el dominio de αpara la Ecuación (4) a 1< α<1,148. Del mismo modo, limitamos αen la ecuación (5) a 0< α< 0,431.

Estimación de parámetros

Función de respuesta

Para optimizar el resultado de la simulación, utilizamos una forma de la función de respuesta multiobjetivo introducida por Ikonen y Najim (2002). El problema se formula como

Figura 5: Ejemplo de resultado de simulación para 20 entidades.

La variable binariaZikde la ecuación (6) se utiliza para identificar si cada funcionario(i) recibió 0,1, . . .,5 evaluaciones superiores durante el periodo de 5 años en el sistema. La ecuación (7) mide la diferencia al cuadrado entre el porcentaje de funcionarios de la simulación conkevaluacionesmáximasyAk, donde la variableAkes el porcentaje histórico de funcionarios que recibenkevaluacionesmáximas. Este error al cuadrado se calcula para cada valor dek yse suma en la ecuación:

La ecuación (7) mide la bondad de ajuste del resultado de la simulación en comparación con los datos mostrados en la Figura 4. El número total de mejores evaluaciones recibidas por cada agente es una medida de la precisión del modelo. Otra medida de la precisión es el error cuadrático de las mejores evaluaciones que recibe cada funcionario. Este error al cuadrado se calcula para cada añoj yse suma en la ecuación:

dondeB jes el porcentaje de funcionarios con la mejor evaluación en el añoj. Las ponderaciones,Wken la ecuación (7) yWjen la ecuación (8), nos permiten controlar las ponderaciones de las diferencias entre cada resultado de simulación y los datos reales. Esto permite compensar las diferencias en el error relativo, así como el número desigual de puntos de datos en la ecuación (7) frente a la ecuación (8). El valorY dela ecuación (8) mide la bondad de ajuste del resultado de la simulación en comparación con los datos mostrados en la figura 3. Las medidas de eficacia proporcionadas en las ecuaciones (7) y (8) pueden combinarse en una única medida de rendimiento ponderada, D = T + Y .
ponderada,D =T +Y . Entonces el problema se convierte en encontrar el valor del parámetro de la función de clasificación de αque minimiza la función objetivoD. Es decir, αˆ= arg minD.
α

El impacto empresarial

Estimación de parámetros de objetivo único

Para estimar los parámetros de la función de clasificación, utilizamos la rutina de optimización por simulación OptQuest (April, Glover y Kelly 2002). El usuario tiene la posibilidad de modificar el número mínimo y máximo de réplicas para un ajuste específico de error relativo, junto con el número máximo de escenarios. Los resultados de la rutina OptQuest proporcionan la lista de soluciones candidatas iniciales evaluadas por el método KN, un procedimiento totalmente secuencial que elimina las soluciones estadísticamente inferiores después de cada repetición. Ejecutamos el procedimiento KN con una zona de indiferencia de 0,001 en el mejor subconjunto de escenarios de la rutina OptQuest para determinar el ajuste óptimo del parámetro αen cada función de clasificación. Encontrará un análisis detallado del procedimiento KN en Kim y Nelson (2001). Utilizando el complemento OptQuest de Simio, 50 escenarios, con 10 réplicas cada uno, tardaron entre 15 y 16 minutos en ejecutarse en un Intel@ Core i5-4300U a 2,50 GHz con 8,00 GB de RAM.

Para la estimación de parámetros de objetivo único, realizamos dos experimentos separados para encontrar los parámetros de cada función de ordenación que resolvía:

En la Ecuación (8),Bj =[0,368, 0,493, 0,512, 0,582, 0,719], que representa el porcentaje de carreras que se enfrentan a la promoción en 2015 y 2016 que recibieron una evaluación superior cada año en rango. El parámetro αse evaluó en las ecuaciones (3), (4) y (5), y elYmínimoparacada función de clasificación se muestra en la Figura 6.

Figura 6: Resultados de la simulación para el porcentaje de carreras que reciben la mejor evaluación por años en el ranking.

Dado queWj =[1,1,1,1,1], la tabla 1 resume el rendimiento de cada función de clasificación con la configuración óptima de los parámetros. Cada función de clasificación se compara con la mejor en la columna "Porcentaje de diferencia" de la Tabla 1.

Tabla 1: Resumen delYmínimodecada función de clasificación con αdeterminado mediante optimización por simulación.

Función de clasificación

Y mínimo Porcentaje de diferencia

Lineal

0.00674 1.81%

Exponencial

0.00662 -

Potencia

0.00985 48.79%

También se evaluó el parámetro αen las ecuaciones (3), (4) y (5), y en la figura 7 se muestra el mínimo T para cada función de clasificación. En la ecuación (7),Ak =[0,070, 0,119, 0,231, 0,294, 0,223, 0,064], que representa los porcentajes históricos de oficiales que se enfrentan a la promoción en 2015 y 2016 que recibieron [0, 1,...,5] evaluaciones máximas totales como especialidad. Dado queWk=[1,1,1,1,1,1], el mínimo T para cada función de clasificación y una comparación de cada función de clasificación con la mejor se muestran en la Tabla 2.

Figura 7: Resultados de la simulación para los porcentajes de las mejores evaluaciones totales recibidas por las empresas principales

Tabla 2: Resumen delTmínimo para cada función de clasificación con αdeterminado mediante optimización por simulación.

Función de clasificación

T mínimo Porcentaje de diferencia

Lineal

0.0138 -

Exponencial

0.0275 99.27%

Potencia

0.0175 26.81%

Estimación multiobjetivo ponderada de parámetros

En la estimación de parámetros de objetivo único, utilizamos ecuaciones separadas para cada función de clasificación al determinar el mínimo deT eY . Para la estimación de parámetros multiobjetivo, utilizamos una suma ponderada deY yT . Por lo tanto, es necesario determinarWj yWk adecuadosparala función de respuesta,D. La ecuación (8) suma el error al cuadrado entre seis salidas de simulación y los datos históricos, mientras que la ecuación (7) suma el error al cuadrado entre cinco puntos de datos y los datos históricos. Por lo tanto, empezamos estableciendo cada componente deWken5/6 para ponderar las salidas deT eY por igual. Por último, factorizamos el error relativo en Wk. El valor medio de las respuestas utilizadas en la ecuación (7) es 0,535, que representa el porcentaje medio de especialidades que reciben una evaluación máxima en un año determinado. El valor medio de las respuestas utilizadas en la ecuación (8) es 0,167, que representa el porcentaje medio de especializaciones que reciben cada una de las seis posibilidades para un número total de evaluaciones máximas. Compensamos la diferencia de magnitudes multiplicando elWk inicialpor3,21 (0,535/0,167) y cada componente del vectorWkes2,675 (3,21 5/6). Por tanto, al evaluarD, utilizamosWj =[1,1,1,1] yWk=[2,675,2,675,2,675,2,675,2,675,2,675,2,675]. La figura 8 muestra que la minimización deDno minimizaY niT .

La eficacia de nuestro enfoque multiobjetivo ponderado se ilustra en los dos gráficos de la figura 9. La línea etiquetada como "Sin factor tiempo" representa un nivel de rendimiento estático sin factor tiempo añadido, lo que da como resultadoD = 0,864. El equilibrio entreT eY que se muestraen la figura 8 da como resultado una mejora porcentual menor que las respuestas de estimación de parámetros de un solo objetivo que se resumen en las tablas 1 y 2. La tabla 3 muestra el valor de D utilizando la estimación de parámetros de un solo objetivo. La Tabla 3 muestra el valor de D utilizando los ajustes óptimos de los parámetros para cada una de las tres funciones de clasificación.

Figura 8: Resultados de la simulación que muestran la relación entre D, Y y T para la función de clasificación lineal.

Tabla 3: Resumen del valor mínimo deD paracada función de clasificación con αdeterminado mediante optimización por simulación.

Figura 9: Efecto sobre Y (izquierda) y T (derecha) de la minimización de la función de respuesta multiobjetivo ponderada D

Conclusiones

Las funciones de clasificación evaluadas en los experimentos descritos anteriormente representan un aumento del nivel de rendimiento percibido en función del tiempo. Puede tratarse de una mejora real del rendimiento, de la tendencia del evaluador a recompensar la antigüedad o de una combinación de ambas. Las funciones evaluadas no son una lista exhaustiva de posibilidades, sino que representan un conjunto fácilmente interpretable con límites superiores e inferiores claros para el parámetro α, que demuestran el efecto de la antigüedad en el proceso de evaluación. El objetivo de la salida del modelo dicta la función de ordenación más adecuada: una función de ordenación exponencial para minimizarY , una función de ordenación lineal para minimizarT , o una función de ordenación de potencia para minimizarD. En futuras investigaciones se estudiará el uso de polinomios de orden superior para representar mejor el comportamiento humano en el modelo. La cuantificación del efecto de la antigüedad en el proceso de evaluación ayudará a los profesionales de los recursos humanos a determinar en qué medida las evaluaciones del rendimiento representan los niveles reales de rendimiento de los funcionarios en relación con sus compañeros.

AGRADECIMIENTOS

Esta investigación ha sido financiada parcialmente por la Fundación Omar Nelson Bradley. Las opiniones expresadas en este artículo son las de los autores y no reflejan necesariamente la política o posición oficial del Mando de Recursos Humanos del Ejército de Estados Unidos, el Departamento del Ejército, el Departamento de Defensa o el Gobierno de Estados Unidos.