Modelo de Bradley–Terry

De Wikipedia, la enciclopedia libre

El modelo de Bradley–Terry es un modelo de probabilidad que puede predecir el resultado de una comparación pareada. Dado un par de individuos i y j extraídos de alguna población, se estima la probabilidad de que la comparación por pares i > j resulta cierta, como

donde pi es una puntuación real positiva asignada al individuo i. La comparación i > j se puede leer como "i es preferible a j", "i ocupa un lugar más alto que j" o "i vence a j", según la aplicación.

Por ejemplo, pi puede representar la habilidad de un equipo en un torneo deportivo, estimada a partir del número de veces que he ganado un partido. a continuación, representa la probabilidad de que i a ganar un partido contra j.[1][2]​ Otro ejemplo utilizado para explicar el propósito del modelo es el de puntuar los productos de una determinada categoría por calidad. Si bien es difícil para una persona redactar una clasificación directa de (muchas) marcas de vino, puede ser factible comparar una muestra de pares de vinos y decir, para cada par, cuál es mejor. El modelo de Bradley–Terry se puede utilizar para obtener una clasificación completa.[2]

Historial y aplicaciones[editar]

El modelo lleva el nombre de R. A. Bradley y M. E. Terry,[3]​ quienes lo presentaron en 1952,[4]​ aunque ya había sido estudiado por Zermelo en la década de 1920.[1][5][6]

Las aplicaciones del modelo en el mundo real incluyen la estimación de la influencia de las revistas estadísticas o la clasificación de documentos por relevancia en los motores de búsqueda con aprendizaje automático.[7]​ En la última aplicación, puede reflejar que el documento i es más relevante para la consulta del usuario que el documento j, por lo que debería mostrarse antes en la lista de resultados. El pi individual expresa entonces la relevancia del documento y se puede estimar a partir de la frecuencia con la que los usuarios hacen clic en "resultados" particulares cuando se les presenta una lista de resultados.[8]

Definición[editar]

El modelo de Bradley–Terry se puede parametrizar de varias formas. Una forma de hacerlo es elegir un solo parámetro por observación, lo que lleva a un modelo de n parámetros p1, ..., pn.[9]​ Otra variante, de hecho la versión considerada por Bradley y Terry,[2]​ utiliza funciones de puntuación exponencial de modo que

o, usando el logit (y no permitiendo los lazos),[1]

reduciendo el modelo a regresión logística por parejas de individuos.

Estimación de los parámetros[editar]

El siguiente algoritmo calcula los parámetros pi de la versión básica del modelo a partir de una muestra de observaciones. Formalmente, calcula una estimación de máxima verosimilitud, es decir, maximiza la probabilidad de los datos observados. El algoritmo se remonta al trabajo de Zermelo.[1]

Las observaciones requeridas son los resultados de comparaciones previas, por ejemplo, pares (i , j) donde i vence a j. Resumiendo estos resultados como wij, el número de veces que i ha vencido a j, obtenemos la probabilidad logarítmica del vector de parámetros p = p1 , ..., pn como[1]

<

Denote el número de comparaciones "ganadas" por i como Wi. A partir de un vector arbitrario p, el algoritmo realiza iterativamente la actualización

para todo i. Después de calcular todos los nuevos parámetros, deben volver a normalizarse,

Este procedimiento de estimación mejora la probabilidad logarítmica en cada iteración y, finalmente, converge a un máximo único.

Véase también[editar]

Referencias[editar]

  1. a b c d e Hunter, David R. (2004-02). «MM algorithms for generalized Bradley-Terry models». Annals of Statistics (en inglés) 32 (1): 384-406. ISSN 0090-5364. doi:10.1214/aos/1079120141. Consultado el 9 de febrero de 2021. 
  2. a b c Agresti, Alan (2014). Categorical Data Analysis. John Wiley & Sons. pp. 436-439. 
  3. «Bradley-Terry model - Encyclopedia of Mathematics». encyclopediaofmath.org. Consultado el 9 de febrero de 2021. 
  4. Bradley, Ralph Allan; Terry, Milton E. (1952). «Rank Analysis of Incomplete Block Designs: I. The Method of Paired Comparisons». Biometrika 39 (3/4): 324-345. ISSN 0006-3444. doi:10.2307/2334029. Consultado el 9 de febrero de 2021. 
  5. Zermelo, E. (1 de diciembre de 1929). «Die Berechnung der Turnier-Ergebnisse als ein Maximumproblem der Wahrscheinlichkeitsrechnung». Mathematische Zeitschrift (en alemán) 29 (1): 436-460. ISSN 1432-1823. doi:10.1007/BF01180541. Consultado el 9 de febrero de 2021. 
  6. Ebbinghaus, Heinz-Dieter; Peckhaus, Volker (2007). Ernst Zermelo: an Approach to His Life and Work (en inglés). Springer e-books. pp. 268-269. ISBN 978-3-540-49553-6. OCLC 690295012. Consultado el 9 de febrero de 2021. 
  7. Szummer, Martin; Yilmaz, Emine (1 de octubre de 2011). Semi-supervised Learning to Rank with Preference Regularization (en inglés estadounidense). Consultado el 9 de febrero de 2021. 
  8. Radlinski, Filip; Joachims, Thorsten (2007). Active Exploration for Learning Rankings from Clickthrough Data. KDD '07 Proceedings of the 13th ACM SIGKDD international conference on Knowledge discovery and data mining. pp. 570-579. doi:10.1145/1281192.1281254. 
  9. Wu, Fangzhao; Xu, Jun; Li, Hang; Jiang, Xin (3 de noviembre de 2014). «Ranking Optimization with Constraints». Proceedings of the 23rd ACM International Conference on Conference on Information and Knowledge Management. CIKM '14 (Association for Computing Machinery): 1049-1058. ISBN 978-1-4503-2598-1. doi:10.1145/2661829.2661895. Consultado el 9 de febrero de 2021.