Diferencia entre revisiones de «Precisión»
Sin resumen de edición |
m Revertidos los cambios de 189.226.72.193 a la última edición de Diegusjaimes |
||
Línea 2: | Línea 2: | ||
Es un parámetro relevante, especialmente en la investigación de fenómenos [[Física|físicos]], ámbito en el cual los resultados se expresan como un número más una indicación del error máximo estimado para la magnitud. Es decir, se indica una zona dentro de la cual está comprendido el verdadero valor de la magnitud. |
Es un parámetro relevante, especialmente en la investigación de fenómenos [[Física|físicos]], ámbito en el cual los resultados se expresan como un número más una indicación del error máximo estimado para la magnitud. Es decir, se indica una zona dentro de la cual está comprendido el verdadero valor de la magnitud. |
||
luis luis luis luis luis luis luis luis luis |
|||
En '''[[informática]]''', se denomina '''precisión''' al número de [[bit]]s usados para representar un valor. En general, en un [[Computadora|sistema computacional]] la precisión está dada por el valor del dígito menos significativo de una palabra digital que representa un número con una escala y en un tipo de dato definido. Visto desde otra perspectiva, equivale a la diferencia entre dos valores sucesivos representables en el tipo de dato y escala del número. |
|||
[[DELL Precisión|Precisión]] también se refiere a una gama de estaciones de trabajo de sobremesa y portátiles de la marca estadounidense [[Dell|DELL]]. |
[[DELL Precisión|Precisión]] también se refiere a una gama de estaciones de trabajo de sobremesa y portátiles de la marca estadounidense [[Dell|DELL]]. |
Revisión del 01:28 14 oct 2009
En ingeniería, ciencia, industria y estadística, se denomina precisión a la capacidad de un instrumento de dar el mismo resultado en mediciones diferentes realizadas en las mismas condiciones. Esta cualidad debe evaluarse a corto plazo. No debe confundirse con exactitud ni con reproducibilidad.
Es un parámetro relevante, especialmente en la investigación de fenómenos físicos, ámbito en el cual los resultados se expresan como un número más una indicación del error máximo estimado para la magnitud. Es decir, se indica una zona dentro de la cual está comprendido el verdadero valor de la magnitud.
En informática, se denomina precisión al número de bits usados para representar un valor. En general, en un sistema computacional la precisión está dada por el valor del dígito menos significativo de una palabra digital que representa un número con una escala y en un tipo de dato definido. Visto desde otra perspectiva, equivale a la diferencia entre dos valores sucesivos representables en el tipo de dato y escala del número.
Precisión también se refiere a una gama de estaciones de trabajo de sobremesa y portátiles de la marca estadounidense DELL.