Diferencia entre revisiones de «Precisión»

De Wikipedia, la enciclopedia libre
Contenido eliminado Contenido añadido
Sin resumen de edición
Camilo (discusión · contribs.)
m Revertidos los cambios de 186.97.42.128 a la última edición de Jaraga
Línea 5: Línea 5:
En '''[[informática]]''', se denomina '''precisión''' al número de [[bit]]s usados para representar un valor. En general, en un [[Computadora|sistema computacional]] la precición está dada por el valor del dígito menos significativo de una palabra digital que representa un número con una escala y en un tipo de dato definido. Visto desde otra perspectiva, equivale a la diferencia entre dos valores sucesivos representables en el tipo de dato y escala del número.
En '''[[informática]]''', se denomina '''precisión''' al número de [[bit]]s usados para representar un valor. En general, en un [[Computadora|sistema computacional]] la precición está dada por el valor del dígito menos significativo de una palabra digital que representa un número con una escala y en un tipo de dato definido. Visto desde otra perspectiva, equivale a la diferencia entre dos valores sucesivos representables en el tipo de dato y escala del número.


[[DELL Precisión|Precisión]] también se refiere a una gama de estaciones de trabajo de sobremesa y portátiles de la marca estadounidense por ser tan magnifica sebastian[[Dell|DELL]].
[[DELL Precisión|Precisión]] también se refiere a una gama de estaciones de trabajo de sobremesa y portátiles de la marca estadounidense [[Dell|DELL]].


==Véase también==
==Véase también==

Revisión del 18:37 21 nov 2009

En ingeniería, ciencia, industria y estadística, se denomina precisión a la capacidad de un instrumento de dar el mismo resultado en mediciones diferentes realizadas en las mismas condiciones. Esta cualidad debe evaluarse a corto plazo. No debe confundirse con exactitud ni con reproducibilidad.

Es un parámetro relevante, especialmente en la investigación de fenómenos físicos, ámbito en el cual los resultados se expresan como un número más una indicación del error máximo estimado para la magnitud. Es decir, se indica una zona dentro de la cual está comprendido el verdadero valor de la magnitud.

En informática, se denomina precisión al número de bits usados para representar un valor. En general, en un sistema computacional la precición está dada por el valor del dígito menos significativo de una palabra digital que representa un número con una escala y en un tipo de dato definido. Visto desde otra perspectiva, equivale a la diferencia entre dos valores sucesivos representables en el tipo de dato y escala del número.

Precisión también se refiere a una gama de estaciones de trabajo de sobremesa y portátiles de la marca estadounidense DELL.

Véase también