Metodologías de evaluación de software de código abierto

De Wikipedia, la enciclopedia libre

Varios métodos han sido creados para definir un proceso de valoración para software de código abierto. Algunos se centran en ciertos aspectos como la madurez, la durabilidad y la estrategia de la organización alrededor del propio proyecto de código abierto. Otras metodologías añaden aspectos funcionales al proceso de valoración.

Metodologías existentes[editar]

Hay más de 20 métodos diferentes de evaluación de OSS.[1]

  • Modelo de Madurez del código abierto (OSMM) de Capgemini
  • Modelo de Madurez del código abierto (OSMM) de Navica[2]
  • Modelo de Madurez del código abierto (OSSMM) por Bosque y Guliani[3]
  • Metodología de Calificación y Selección de software de Código abierto (QSOS)
  • Sistema de clasificación abierto BRR (OpenBRR)
  • Índice de Calidad Empresarial abierto (OpenBQR)[4]
  • QualiPSo[5]
  • Modelo QualiPSo para la confiabilidad del Software de Código abierto (MOSST)[6][7]
  • Modelo de confiabilidad para el Software de Código abierto: Cómo evaluar el Software de Código abierto[8]
  • QualOSS: Calidad de Código abierto[9]
  • Framework o Marco de evaluación para Software de Código abierto[10]
  • Un Modelo de Calidad para OSS Selección[11]
  • Método de Origen del Atos para Cualificación y selección de Software de Código abierto (QSOS)[12]
  • Observatorio para Innovación y transferencia Tecnológica encima software de Código abierto (OITOS)[13]
  • Framework o Marco para la evaluación de sistemas críticos de SO (FOCSE)[14]

Comparación[editar]

Criterios de comparación[editar]

Stol y Babar han propuesto un marco de comparación para los métodos de evaluación de OSS. Su framework o marco enumera los criterios en cuatro categorías: criterios relacionados con el contexto en el que se utilizará el método, el usuario del método, el proceso del método, y la evaluación del método (p. ej., su validez y etapa de madurez).

La comparación presentada abajo está basada en los siguientes (conjunto alternativo de) criterios:

  • Antigüedad : la fecha de nacimiento de la metodología.
  • Autores/Patrocinadores originales: autores de la metodología original y entidad patrocinadora (si hubiese)
  • Licencia : Distribución y licencia de uso para la metodología y las valoraciones resultantes
  • Modelo de valoración :
    • Niveles de detalle : varios niveles de detalles o granularidad de la evaluación
    • Criterios predefinidos : la metodología proporciona algunos criterios predefinidos
    • Criterios técnicos/funcionales : la metodología permite el uso de criterios específicos de dominio basados en información técnica o características
  • Modelo de puntuación :
    • Escala de puntuación por criterio
    • Proceso iterativo : la evaluación se puede realizar y perfeccionar utilizando varios pasos mejorando el nivel de detalles
    • Ponderación de criterios : es posible aplicar ponderación a los criterios evaluados como parte del modelo de puntuación de la metodología
  • Comparación : el proceso de comparación está definido por la metodología

Gráfico de comparación[editar]

Criterios OSMM Capgemini OSMM Navica QSOS OpenBRR OpenBQR[4] Modelo de madurez de código abierto
Antigüedad 2003 2004 2004 2005 2007 2008
Autores/Patrocinadores originales Capgemini[15] Navicasoft Atos Origin[16] Carnegie Mellon Valle de silicio, SpikeSource, O'Reilly, Intel[17] Universidad de Insubria Proyecto QualiPSo, comisión de UE
Licencia Licencia no libre, pero distribución autorizada Modelos de valoración autorizados bajo la Licencia Libre Académica Metodología y valoraciones autorizadas bajo el GNU Licencia de Documentación Libre Las valoraciones resulta autorizadas bajo un Creativos Commons licencia Creative Commons Atribución-Compartir Igualmente 3.0 Licencia Creative Commons Atribución-Compartir Igualmente 3.0 Licencia
Modelo de valoración Práctico Práctico Práctico Científico Práctico Científico
Niveles de detalle 2 hachas encima 2 niveles 3 niveles 3 niveles o más (cuadrículas funcionales) 2 niveles 3 niveles 3 niveles
Predefined Criterios
Criterios/funcionales técnicos No No
Modelo de puntuación Flexible Flexible Estricto Flexible Flexible Flexible
Puntuando escala por criterio 1 a 5 1 a 10 0 a 2 1 a 5 1 a 5 1 a 4
Proceso iterativo No No
Ponderación de criterios
Comparación No No No

Ve también[editar]

  1. Klaas-Jan Stol, Muhammad Ali Babar. "A Comparison Framework for Open Source Software Evaluation Methods" published in OSS 2010 proceedings. IFIP AICT vol. 319, pp. 389-394.
  2. Zahoor, Adnan; Mehboob, Khalid; Natha, Sarfaraz (September 2017). «Comparison of Open Source Maturity Models». Procedia Comput. Sci. 111 (C): 348-354. ISSN 1877-0509. doi:10.1016/j.procs.2017.06.033. 
  3. Woods, D., Guliani, G.: Open Source for the Enterprise: Managing Risks Reaping Rewards. O’Reilly Media, Inc., Sebastopol (2005)
  4. a b «Wayback Machine». web.archive.org. 20 de diciembre de 2016. Archivado desde el original el 20 de diciembre de 2016. Consultado el 3 de febrero de 2021. 
  5. «CORDIS | European Commission». 
  6. V. Del Bianco, L. Lavazza, S. Morasca, D. Taibi and D. Tosi.: Quality of Open Source Software: The QualiPSo Trustworthiness Model. In: proc. 5th IFIP WG 2.13 International Conference on Open Source Systems, OSS 2009, Skövde, Sweden, June 3–6, 2009. Proceedings
  7. V. Del Bianco, L. Lavazza, S. Morasca, D. Taibi and D. Tosi.: The QualiSPo approach to OSS product quality evaluation. ACM/IEEE, In Proceedings of the IEEE International Workshop on Free Libre Open Source Software (FLOSS) – Colocated with ICSE, 2010
  8. D.Taibi: Towards a trustworthiness model for Open Source Software:How to evaluate Open Source Software. LAP LAMBERT Academic Publishing. 2010. ISBN 3844389687
  9. «QualOSS - CETIC». www.cetic.be. European Commission. Consultado el 11 de enero de 2019. 
  10. Koponen, T., Hotti, V.: Evaluation framework for open source software. In: Proc. Software Engineering and Practice (SERP), Las Vegas, Nevada, USA, June 21–24 (2004)
  11. Sung, W.J., Kim, J.H., Rhew, S.Y.: A Quality Model for Open Source Software Selec- tion. In: Proc. Sixth International Conference on Advanced Language Processing and Web Information Technology, Luoyang, Henan, China, pp. 515–519 (2007)
  12. Atos Origin: Method for Qualification and Selection of Open Source software (QSOS) version 1.6, Technical Report (2006)
  13. Cabano, M., Monti, C., Piancastelli, G.: Context-Dependent * Evaluation Methodology for Open Source Software. In: Proc. Third IFIP WG 2.13 International Conference on Open Source Systems (OSS 2007), Limerick, Ireland, pp. 301–306 (2007)
  14. Ardagna, C.A., Damiani, E., Frati, F.: FOCSE: An OWA-based Evaluation Framework for OS Adoption in Critical Environments. In: Proc. Third IFIP WG 2.13 International Conference on Open Source Systems, Limerick, Ireland, pp. 3–16 (2007)
  15. «Capgemini - Get the future you want». Capgemini España. Consultado el 13 de enero de 2021. 
  16. «BNamericas - Atos Origin S.A. (Atos)». BNamericas.com. Consultado el 13 de enero de 2021. 
  17. «Intel | Soluciones del centro de datos, IoT e innovación en PC». Intel. Consultado el 13 de enero de 2021. 

Enlaces externos[editar]