martes, 5 de abril de 2011

IMPORTANCIA DE LA TOLERANCIA Y AGUSTES EN EL DISEÑO MECANICO TRABAJO 10

IMPORTANCIA DE LA TOLERANCIA Y AGUSTES EN EL DISEÑO MECANICO
INTRODUCCIÓN Actualmente en cualquier producción de materiales existe la necesidad de imponer un análisis cuidadoso para poder lograr, desde el principio de elaboración la eliminación de problemas de ensamble. Es muy importante que el patrón sea el totalmente adecuado ya que determinara el tamaño en sus dimensiones. Sin embargo hay varios factores que afectan al resultado de lo que se desea obtener, algunos de los factores pueden ser el calentamiento de la maquina, el desgaste de las herramientas, así como problemas en los materiales, entre otros. Para ello es importante que se admitan algunas variaciones en las dimensiones especificadas tomando en cuenta que no alteren los requerimientos funcionales que se procuran satisfacer.
 La tolerancia es la cantidad total que le es permitido variar a una dimensión especificada, donde es la diferencia entre los límites superior e inferior especificados. El ajuste ocurre al ensamblar piezas, donde es la cantidad de juego o interferencia que resulta del ensamble.
Los ajustes pueden clasificarse de la siguiente manera:
            Con juego.
            Indeterminado o de transición.
            Con interferencia, contracción o forzado.
El tipo de ajuste es seleccionado a base de los requerimientos. Por ejemplo cunado se desea que una pieza se desplace dentro de la otra se utiliza un ajuste con juego, el ajuste forzado se utiliza cuando se desea que las dos piezas queden firmemente sujetas, y el ajuste deseado se logra aplicando tolerancias adecuadas a cada una de las partes ensambladas.
Las formas de expresar las tolerancias de la forma del dimensionamiento límite, en el cual el límite superior especificado se coloca arriba del límite inferior especificado. Cuando se expresa en un solo renglón, el límite inferior precede al superior y un guión separa los dos valores.
Otra forma de expresar las tolerancias se basa en el sistema ISO donde la dimensión especificada antecede a la tolerancia expresada mediante una letra y un número. La tolerancia depende de la dimensión, entre mayor sea la dimensión mayor puede ser la tolerancia. El tipo de ajuste se determina dependiendo de las dimensiones, ya que para piezas que se ensamblan es necesario analizar la interferencia máxima o mínima, esto depende de las dimensiones reales de las piezas que se ensamblan y de las tolerancias. Por ejemplo, para determinar la interferencia mínima solo basta en pensar que éste ocurrirá cuando ambas partes por ensamblar están en condición de material máximo, esto será la diferencia entre las dos. Sin embargo la interferencia máxima su condición de material debe estas dada en mínimo y eso será la diferencia entre las dos.
CONCLUSIÓN: bueno gracias a esta información  se que la metrología es muy importante, por que me sirve para saber la utilización de instrumentos y también cuales son los errores ya que las tolerancias son muy importantes en la elaboración de cualquier material utilizado en la industria ya que nos permite que al momento de estar en la fabricación existe la posibilidad de que haya variaciones en el material o en los instrumentos y gracias al tipo de instrumentos que existen hacerlo con precisión.



SISTEMA INTERNACIONAL DE UNIDADES TRABAJO 5

IMPORTANCIA DEL SISTEMA INTERNACIONAL DE UNIDADES TRABAJO 3

IMPORTANCIA DEL SISTEMA INTERNACIONAL DE UNIDADES

Con objeto de garantizar la uniformidad y equivalencia en las mediciones, así como facilitar las actividades tecnológicas industriales y comerciales, diversas naciones del mundo suscribieron, en el tratado del metro que se adoptó el Sistema Métrico Decimal. Este Tratado fue firmado por diecisiete países en París, Francia, en 1875. México se adhirió al Tratado el 30 de diciembre de 1890. Cincuenta y dos naciones participan como miembros actualmente en el Tratado. El Tratado del Metro otorga autoridad a la Conférence Générale des Paidós et Mesures (CGPM - Conferencia General de Pesas y Medidas), al Comité International des Paidós et Mesures (CIPM - Comité Internacional de Pesas y Medidas) y al Bureau International des Paidós et Mesures (BIPM - Oficina Internacional de Pesas y Medidas), para actuar a nivel internacional en materia de metrología.
Conferencia General recibe el informe del CIPM sobre el trabajo realizado. En su seno se discuten y examinan los acuerdos que aseguran el mejoramiento y diseminación del Sistema Internacional de Unidades; se validan los avances y los resultados de las nuevas determinaciones metrológicas fundamentales y las diversas resoluciones científicas de carácter internacional y se adoptan las decisiones relativas a la organización y desarrollo del BIPM. La última reunión de la CGPM, la vigésima segunda realizada desde su creación, se llevó a cabo del 13 al 17 de octubre de 2003 en París, con la participación del CENAM en representación de México.

El Sistema Internacional de Unidades se fundamenta en siete unidades de base correspondientes a las magnitudes de longitud, masa, tiempo, corriente eléctrica, temperatura, cantidad de materia, e intensidad luminosa. Estas unidades son conocidas como el metro, el kilogramo, el segundo, el ampere, el kelvin, el mol y la candela, respectivamente. A partir de estas siete unidades de base se establecen las demás unidades de uso práctico, conocidas como unidades derivadas, asociadas a magnitudes tales como velocidad, aceleración, fuerza, presión, energía, tensión, resistencia eléctrica, etc.

METROLOGIA TRABAJO 1

IMPORTANCIA DEL SISTEMA INTERNACIONAL DE UNIDADES TRABAJO 3

IMPORTANCIA DEL SISTEMA INTERNACIONAL DE UNIDADES

Con objeto de garantizar la uniformidad y equivalencia en las mediciones, así como facilitar las actividades tecnológicas industriales y comerciales, diversas naciones del mundo suscribieron, en el tratado del metro que se adoptó el Sistema Métrico Decimal. Este Tratado fue firmado por diecisiete países en París, Francia, en 1875. México se adhirió al Tratado el 30 de diciembre de 1890. Cincuenta y dos naciones participan como miembros actualmente en el Tratado. El Tratado del Metro otorga autoridad a la Conférence Générale des Paidós et Mesures (CGPM - Conferencia General de Pesas y Medidas), al Comité International des Paidós et Mesures (CIPM - Comité Internacional de Pesas y Medidas) y al Bureau International des Paidós et Mesures (BIPM - Oficina Internacional de Pesas y Medidas), para actuar a nivel internacional en materia de metrología.

Conferencia General recibe el informe del CIPM sobre el trabajo realizado. En su seno se discuten y examinan los acuerdos que aseguran el mejoramiento y diseminación del Sistema Internacional de Unidades; se validan los avances y los resultados de las nuevas determinaciones metrológicas fundamentales y las diversas resoluciones científicas de carácter internacional y se adoptan las decisiones relativas a la organización y desarrollo del BIPM. La última reunión de la CGPM, la vigésima segunda realizada desde su creación, se llevó a cabo del 13 al 17 de octubre de 2003 en París, con la participación del CENAM en representación de México.

El Sistema Internacional de Unidades se fundamenta en siete unidades de base correspondientes a las magnitudes de longitud, masa, tiempo, corriente eléctrica, temperatura, cantidad de materia, e intensidad luminosa. Estas unidades son conocidas como el metro, el kilogramo, el segundo, el ampere, el kelvin, el mol y la candela, respectivamente. A partir de estas siete unidades de base se establecen las demás unidades de uso práctico, conocidas como unidades derivadas, asociadas a magnitudes tales como velocidad, aceleración, fuerza, presión, energía, tensión, resistencia eléctrica, etc.

MERROLOGIA: TRABAJO 2

MERROLOGIA:

La Metrología es el campo de los conocimientos relativos a las mediciones, e incluye los aspectos teóricos y prácticos, que se relacionan con ellas, cualquiera que sea su nivel de exactitud y en cualquier campo de la ciencia y la tecnología; su objetivo es procurar la uniformidad de las mediciones, tanto en lo concerniente a las transacciones comerciales y de servicios, en los procesos industriales, así como en los trabajos de investigación científica y desarrollo tecnológico.

CLASIFICASION:

• Metrología científica: Es la encargada de materializar las unidades del Sistema Internacional de Unidades, del mantenimiento de los patrones nacionales y de su trazabilidad y transferencia.
• Metrología industrial: Su objetivo es garantizar la confiabilidad de los instrumentos de medición que se utilizan en los procesos industriales y en el aseguramiento de la calidad en la producción de
• Metrología legal: Se encarga de las unidades de medida, los instrumentos y métodos de medición y calibración, que tienen por objeto garantizar transparencia y equidad en las transacciones comerciales y que aseguren la integridad física del consumidor de bienes y servicios.

Le metrología es importante porque a lo largo del tiempo nos a permitido evolucionar mentalmente socialmente y llevar un  estilo de vida mucho mejor. a lo largo de los siglos a permitido hacer calculoso más sencillos para la mejora de distintos medios o servicios para facilitar algunos   está cálculos o procesos de medición un ejemplo de estos son  el tiempo que nos permite llevar un control de nuestro día el kilogramo(Kg) el cual lo emplean las amas de casa al comprar su mandado o los científicos que tienen que tienen que medir o pesar sustancias peligrosas también los ingenieros el medir cualquier objeto o al emplear  algunos experimentos prácticamente todo el mundo emplea la metrología aunque algunos no lo saben en las cosas más sencillas lo único que se interponía antes es que algunas ciudades tenían sus principios diferentes pero ahora existen organizaciones que afilian a las naciones para evitar conflictos entre los extranjeros que llegan a ejercer alguna profesión fuera de su país de origen.
Metrología industrial
La función de la metrología industrial reside en la calibración, control y mantenimiento adecuados de todos los equipos de medición empleados en producción, inspección y pruebas. Esto con la finalidad de que pueda garantizarse que los productos están de conformidad con normas. El equipo se controla con frecuencias establecidas y de forma que se conozca la incertidumbre de las mediciones. La calibración debe hacerse contra equipos certificados, con relación válida conocida a patrones, por ejemplo los patrones nacionales de referencia.                                                       Metrología legal                                                                                                                                             Según la Organización Internacional de Metrología Legal (OIML) es la totalidad de los procedimientos legislativos, administrativos y técnicos establecidos por, o por referencia a, autoridades públicas y puestas en vigor por su cuenta con la finalidad de especificar y asegurar, de forma regulatoria o contractual, la calidad y credibilidad apropiadas de las mediciones relacionadas con los controles oficiales, el comercio, la salud, la seguridad y el ambiente.     DIVISON DE LA METROLOGIA                                                                                                                          SEGÚN SU FUNCION:                                                                                                                                         a) Legal
b) Científica
c) Industrial
SEGÚN SU AREA DE APLICACIÓN:
a) Metrología dimensional.
b) Metrología de Masas.
c) Metrología de fuerza y presión.
d) Metrología de flujo y volumen.
e) Metrología electromagnética.
f) Metrología de tiempo y frecuencia.
g) Termometría.
h) Metrología física.
- Vibraciones.
- Acústica.
- Óptica
- Radiometría. i) Metrología de Materiales.

TERMINOS FUNDAMENTALES  DE LA METROLOGIA

ESCALA DE CERO SUPRIMIDO
Escala cuyo alcance no incluye el valor cero.
Ejemplo: Escala de un termómetro clínico.
ESCALA (de un instrumento de medición)
Conjunto ordenado de marcas, con una numeración asociada, que forma parte de un dispositivo indicador de un instrumento de medición.
Nota: cada marca es llamada una marca de la escala.
ESCALA DE REFERENCIA CONVENCIONAL
Escala de valores de referencia
Para magnitudes particulares de una naturaleza determinada, es el conjunto ordenado de valores, continuos o discretos, definidos por convención como referencia para clasificar en orden creciente o decreciente las magnitudes de esta naturaleza.
Ejemplos:
1.        la escala de dureza Mohos;
2.        la escala de pH en química;
3.        la escala de índice de octano en gasolinas.
ESCALA EXPANDIDA
Escala en la cual una parte de la escala ocupa una longitud que es proporcionalmente más grande que las otras partes.
ESCALA LINEAL
Escala en la cual la longitud y el valor de cada división son relacionadas por un coeficiente de proporcionalidad que es constante a lo largo de la escala.
Nota: Una escala lineal donde los escalones son constantes es llamada escala regular
ESCALA NO LINEAL
Escala en la cual la longitud y el valor de cada división son relacionadas por un coeficiente de proporcionalidad que no es constante a lo largo de la escala.
Nota: Algunas escalas no lineales reciben nombres especiales como ejemplos tenemos escala logarítmica y escala cuadrática.
EXACTITUD (de un instrumento de medición)
Aptitud de un instrumento de medición para dar respuestas próximas al valor verdadero.
Nota: "exactitud" es un concepto cualitativo
EXACTITUD DE MEDICIÓN
Proximidad de concordancia entre el resultado de una medición y un valor verdadero del mensurando.
Notas:
1.        El concepto de exactitud es cualitativo.
2.        El término precisión no debe ser utilizado por exactitud.
CLASE DE EXACTITUD
Clase de instrumentos que satisfacen ciertos requisitos metrológicos destinados a mantener los errores dentro de ciertos límites especificados.
Nota: Una clase de exactitud es usualmente indicada por un número o símbolo adoptado por convención y denominado índice de clase.
UNIDAD (de medida)
Magnitud particular, definida y adoptada por convención, con la cual se comparan las otras magnitudes de la misma naturaleza para expresar cuantitativamente su relación con esta magnitud.
Notas:
Las unidades de medida tienen asignadas en forma convencional nombres y símbolos.
Las unidades de magnitudes que tienen la misma dimensión pueden tener los mismos nombres y símbolos aun cuando las magnitudes no sean de la misma naturaleza.
Ejemplos:
kg.m2.s-2 = (energía)
kg.m2.s-2 = (momento de una fuerza)
(umbral de) MOVILIDAD
La variación más grande en la señal de entrada que no provoca una variación detectable de la respuesta de un instrumento de medición, siendo la variación de la señal de entrada lenta y monótona.
NOTA: El umbral de movilidad puede depender, por ejemplo del ruido (interno o externo) o de la fricción. Puede depender también del valor de la señal de entrada.
UNIDAD (de medida derivada) COHERENTE
Unidad de medida derivada que puede expresarse como un producto de potencias de unidades de base con un factor de proporcionalidad igual a uno.
NOTA: La coherencia puede establecerse solo con respecto a las unidades de base de un sistema particular. Una unidad puede ser coherente con respecto a un sistema pero no a otro.
UNIDAD (de medida) DE BASE
Unidad de medida de una magnitud de base en un sistema determinado de magnitudes.
NOTA: En cualquier sistema coherente de unidades hay solo una unidad de base para cada magnitud de base.
UNIDAD (de medida) DERIVADA
Unidad de medida de una magnitud derivada en un determinado sistema de magnitudes.
NOTA: Algunas unidades derivadas tienen nombres y símbolos especiales; por ejemplo, en el SI:
Magnitud Unidad SI de base
Nombre Símbolo
Fuerza Newton N
Energía Joule J
Presión Pascal P.a.
UNIDAD (de medida) FUERA DE SISTEMA
Unidad de medida que no corresponde a un sistema dado de unidades.
Ejemplos:
el electronvoltio (aproximadamente 1,602 18 x 10-19 J) es una unidad de energía fuera de sistema con respecto al SI;
el día, la hora y el minuto son unidades de tiempo fuera de sistema con respecto al SI.
PATRÓN (de medición)
medida materializada, instrumento de medición, material de referencia o sistema de medición destinado a definir, realizar, conservar o reproducir una unidad o uno o más valores de una magnitud para utilizarse como referencia
Ejemplos:
patrón de masa de 1 kg ;
resistencia patrón de 100 ohmios ;
amperímetro patrón ;
patrón de frecuencia de cesio ;
electrodo de referencia de hidrógeno ;
solución de referencia de cortisol en seres humanos de concentración certificada.
Notas:
Una serie de medidas similares o de instrumentos de medición que se utilizan conjuntamente constituyen un patrón llamado patrón colectivo.
Un conjunto de patrones de valores elegidos que individualmente o en combinación proporcionan una serie de valores de magnitudes de la misma naturaleza, es llamado serie de patrones.
PATRÓN INTERNACIONAL (de medición)
Patrón reconocido por un acuerdo internacional para utilizarse internacionalmente como base para asignar valores a otros patrones de la magnitud concerniente.
PATRÓN NACIONAL (de medición)
Patrón reconocido por una decisión nacional en un país, que sirve de base para asignar valores a otros patrones de la magnitud concerniente.
PATRÓN PRIMARIO
patrón que es designado o reconocido ampliamente como un patrón que tiene las más altas cualidades metrológicas y cuyo valor es aceptado sin referencia a otros patrones de la misma magnitud.
Nota: El concepto de patrón primario es igualmente válido para magnitudes de base o para magnitudes derivadas.
PATRÓN SECUNDARIO
Patrón cuyo valor es establecido por comparación con un patrón primario de la misma magnitud.
PATRÓN DE REFERENCIA
Patrón, en general de la más alta calidad metrológica disponible en un lugar dado, o en una organización determinada del cual se derivan las mediciones realizadas en dicho lugar.
PATRÓN DE TRABAJO
Patrón que es usado rutinariamente para calibrar o controlar las medidas materializadas, instrumentos de medición o los materiales de referencia
Notas:
Un patrón de trabajo es usualmente calibrado contra un patrón de referencia.
Un patrón de trabajo que se usa rutinariamente para asegurarse que las mediciones se realizan correctamente es llamado un patrón de control.
PATRÓN DE TRANSFERENCIA
Patrón utilizado como intermediario para comparar patrones.
Nota: El término dispositivo de transferencia se debe utilizar cuando el intermediario no es un patrón.
PATRÓN VIAJERO
Patrón, algunas veces de construcción especial destinado a ser transportado a distintos lugares.
Ejemplo: un patrón de frecuencia de cesio, portátil, funcionando con acumulador.
PRINCIPIO DE MEDICIÓN
Base científica de una medición.
Ejemplos:
El efecto termoeléctrico aplicado a la medición de temperatura;
El efecto Joseph son aplicado a la diferencia de potencial eléctrico;
El efecto Doler aplicado a la medición de velocidad;
El efecto Reman aplicado a la medición del número de onda de las vibraciones moleculares.
PROCEDIMIENTO DE MEDICIÓN
Conjunto de operaciones, descrito específicamente, para realizar mediciones particulares de acuerdo a un método determinado
Nota: Un procedimiento de medición es usualmente descrito con ese nombre, con suficiente detalle que permite al operador efectuar una medición sin información adicional.
MAGNITUD (medible)
Atributo de un fenómeno, cuerpo o substancia que puede ser distinguido cualitativamente y determinado cuantitativamente.
* La longitud de onda de una luz monocromática es de 0,3 micrómetros, la de otra es de 0,2 micrómetros, la longitud de onda de la primera es más grande que la de la segunda, entonces la longitud de onda es una magnitud.
Ejemplos:
Magnitudes en un sentido general: longitud, tiempo, masa, temperatura, resistencia eléctrica, concentración de cantidad de substancia;
Magnitudes particulares:
Longitud de una varilla
Resistencia eléctrica de un espécimen determinado de alambre
Concentración de cantidad de substancia de etanol en una muestra de vino.
Notas:
El término magnitud puede referirse a una magnitud en un sentido general o a una magnitud particular.
Las magnitudes que pueden ser clasificadas, las unas con relación a las otras, en orden creciente (o decreciente), son llamadas magnitudes de la misma naturaleza.
Las magnitudes de la misma naturaleza pueden ser agrupadas en su conjunto en categorías de magnitudes, por ejemplo:
trabajo, calor, energía
espesor, circunferencia, longitud de onda.
Los símbolos de las magnitudes se establecen en la norma ISO 31
MAGNITUD DE BASE
Una de las magnitudes que en un sistema de magnitudes, se aceptan por convención como funcionalmente independientes unas de otras.
Ejemplo: las magnitudes longitud, masa y tiempo son generalmente consideradas como magnitudes de base en el campo de la mecánica.
Nota: Las magnitudes de base correspondientes a las unidades de base del Sistema Internacional de Unidades se indican en la Nota 1.12.
MAGNITUD DERIVADA
Magnitud definida en un sistema de magnitudes, en función de las magnitudes de base de ese sistema.
Ejemplo: en un sistema en el cual tenga como magnitudes de base a la longitud, masa y tiempo, la velocidad es una magnitud derivada, definida como: la longitud dividida por el tiempo.
MAGNITUD DE DIMENSIÓN UNO
Magnitud adimensional
Magnitud cuya expresión dimensional, en función de las dimensiones de base, tiene todo sus exponentes reducidos a cero.
Ejemplos: dilatación lineal relativa, factor de fricción, número de Mach, índice de refracción, fracción molar, fracción másica.
MAGNITUD DE INFLUENCIA
Magnitud que no es el mensurando pero que afecta al resultado de la medición.
Ejemplos:
La temperatura de un micrómetro cuando se trata de la medida de una longitud.
La frecuencia en la medición de la amplitud de una tensión eléctrica alterna.
La concentración de bilirrubina cuando se trata de la medición de concentración de hemoglobina en una muestra de plasma sanguíneo humano.
MATERIAL DE REFERENCIA (MR)
Material o substancia en el cual uno o más valores de sus propiedades son suficientemente homogéneas y bien definidas, para ser utilizadas para la calibración de aparatos, la evaluación de un método de medición, o para asignar valores a los materiales.
Nota: un material de referencia puede presentarse bajo la forma de un gas, de un líquido o de un sólido, puro o compuesto. Como ejemplos tenemos el agua para la calibración de viscosímetros, el zafiro que permite calibrar la capacidad térmica de un calorímetro y las soluciones utilizadas para la calibración en química analítica.
Esta definición, incluyendo la Nota, se tomó de la Guía ISO 30, 1992.
MATERIAL DE REFERENCIA CERTIFICADO (MRC)
Material de referencia, acompañado de un certificado, en el cual uno o más valores de las propiedades están certificados por un procedimiento que establece trazabilidad a una realización exacta de la unidad en la cual se expresan los valores de la propiedad, y en el que cada valor certificado se acompaña de una incertidumbre con un nivel declarado de confianza.
Notas:
La definición de un "certificado de material de referencia" se da en el inciso 4.2 de la Guía ISO 30, 1992.
Los MRC son en general preparados en lotes donde se determinan los valores de las propiedades, dentro de límites de incertidumbre indicados, por mediciones de muestras representativas del lote entero.
Las propiedades certificadas de materiales de referencia son algunas veces conveniente y confiablemente realizadas cuando el material está incorporado en un dispositivo fabricado especialmente, por ejemplo una substancia cuyo punto triple es conocido dentro de una celda de punto triple; un vidrio de densidad óptica conocida dentro de un filtro de transmisión; esferas de granulometría uniforme montadas en el objetivo de un microscopio. Tales dispositivos pueden también ser considerados como materiales de referencia certificados.
Todos los Marcos responden a la definición de "patrón de medición" definido en el Vocabulario Internacional de Metrología (VIM).
Algunos MR y Marcos tienen propiedades que no pueden ser determinadas por métodos de medición físicos y químicos exactamente definidos, porque no pueden estar ligadas a una estructura química establecida o por otras razones. Dichos materiales incluyen ciertos materiales biológicos tales como vacunas para las cuales se les ha atribuido una unidad internacional, por la Organización Mundial de la Salud.
Esta definición, incluyendo las Notas, está tomada de la Guía ISO 30, 1992.
MEDICIÓN
Conjunto de operaciones que tiene por objeto determinar el valor de una magnitud.
Nota: Las operaciones pueden ser realizadas automáticamente.
MEDIDA MATERIALIZADA
Medida destinada a reproducir o suministrar, de una manera permanente durante su uso, uno o más valores conocidos de una magnitud dada.
Ejemplos:
Una pesa;
Una medida de volumen (de uno o varios valores, con o sin escala);
Una resistencia eléctrica patrón;
Un bloque patrón;
Un generador de señales patrón;
Un material de referencia.
NOTA: La magnitud en cuestión puede ser llamada magnitud suministrada.
MENSURANDO
Magnitud particular sujeta a medición.
Ejemplo: presión de vapor de una muestra determinada de agua a 20EC.
Nota: La especificación de un mensurando puede requerir indicaciones acerca de magnitudes tales como tiempo, temperatura y presión.
MÉTODO DE MEDICIÓN
Secuencia lógica de operaciones, descrita de manera genérica, utilizada en la ejecución de las mediciones.
NOTA: Los métodos de medición pueden ser calificados en varias formas tales como:
método de substitución;
método diferencial;
método nulo o de cero.
METROLOGÍA
Ciencia de la medición.
Nota: La metrología incluye todos los aspectos teóricos y prácticos relacionados con las mediciones; cualquiera que sea su incertidumbre y en cualquier campo de la ciencia y tecnología que ocurra.
MÚLTIPLO DE UNA UNIDAD (de medida)
Unidad grande de medida que se forma a partir de una unidad determinada de acuerdo a un escalonamiento convencional.
Ejemplos:
uno de los múltiplos del metro es el kilómetro;
uno de los múltiplos no decimales del segundo es la hora.
NUMERACIÓN DE LA ESCALA
Conjunto ordenado de números asociados a las marcas de la escala.
REPETIBILIDAD (de un instrumento de medición)
Aptitud de un instrumento de medición para proporcionar indicaciones próximas entre sí por aplicaciones repetidas del mismo mensurando bajo las mismas condiciones de medición.
Notas:
Estas condiciones incluyen:
Reducción a un mínimo de las variaciones debidas al observador
El mismo procedimiento de medición
El mismo observador
El mismo equipo de medición, utilizado bajo las mismas condiciones
El mismo lugar
repetición en un periodo corto de tiempo
La respetabilidad puede expresarse cuantitativamente en términos de las características de dispersión de los resultados.
REPETIBILIDAD (de resultados de mediciones)
Proximidad de concordancia entre los resultados de mediciones sucesivas del mismo mensurando realizadas bajo las misas condiciones de medición

REPRODUCIBILIDAD (de resultados de mediciones)
proximidad de concordancia entre los resultados de mediciones del mismo mensurando realizadas bajo condiciones variables de medición.
Notas:
Una expresión válida de reproducibilidad requiere que se especifiquen las condiciones que variaron.
Las condiciones que variaron pueden incluir :
principio de medición
método de medición
Observador
Instrumento de medición
Patrón de referencia
Lugar
Condiciones de uso
Tiempo
La respetabilidad puede ser expresada cuantitativamente en términos de las características de dispersión de los resultados
Los resultados aquí considerados son habitualmente los resultados corregidos.
RESOLUCIÓN (de un dispositivo indicador)
La diferencia más pequeña entre las indicaciones de un dispositivo indicador que puede ser distinguido significativamente.
Notas:
Para un dispositivo indicador digital, este es el cambio en la indicación cuando el dígito significativo más pequeño cambia un paso, (o da un salto).
Este concepto se aplica también a un dispositivo registrador.
IMPORTANCIA DE L SISTEMA INTERNACIONAL DE UNIDADES

Con objeto de garantizar la uniformidad y equivalencia en las mediciones, así como facilitar las actividades tecnológicas industriales y comerciales, diversas naciones del mundo suscribieron, en el tratado del metro que se adoptó el Sistema Métrico Decimal. Este Tratado fue firmado por diecisiete países en París, Francia, en 1875. México se adhirió al Tratado el 30 de diciembre de 1890. Cincuenta y dos naciones participan como miembros actualmente en el Tratado. El Tratado del Metro otorga autoridad a la Conférence Générale des Paidós et Mesures (CGPM - Conferencia General de Pesas y Medidas), al Comité International des Paidós et Mesures (CIPM - Comité Internacional de Pesas y Medidas) y al Bureau International des Paidós et Mesures (BIPM - Oficina Internacional de Pesas y Medidas), para actuar a nivel internacional en materia de metrología.
Conferencia General recibe el informe del CIPM sobre el trabajo realizado. En su seno se discuten y examinan los acuerdos que aseguran el mejoramiento y diseminación del Sistema Internacional de Unidades; se validan los avances y los resultados de las nuevas determinaciones metrológicas fundamentales y las diversas resoluciones científicas de carácter internacional y se adoptan las decisiones relativas a la organización y desarrollo del BIPM. La última reunión de la CGPM, la vigésima segunda realizada desde su creación, se llevó a cabo del 13 al 17 de octubre de 2003 en París, con la participación del CENAM en representación de México.

El Sistema Internacional de Unidades se fundamenta en siete unidades de base correspondientes a las magnitudes de longitud, masa, tiempo, corriente eléctrica, temperatura, cantidad de materia, e intensidad luminosa. Estas unidades son conocidas como el metro, el kilogramo, el segundo, el ampere, el kelvin, el mol y la candela, respectivamente. A partir de estas siete unidades de base se establecen las demás unidades de uso práctico, conocidas como unidades derivadas, asociadas a magnitudes tales como velocidad, aceleración, fuerza, presión, energía, tensión, resistencia eléctrica, etc.

HISTORIA DEL SISTE MA INTERNACIONAL DE UNIDADES
El Sistema Internacional de Unidades (SI), surgió de la necesidad de unificar y dar coherencia a una gran variedad de subsistemas de unidades que dificultaban la transferencia de resultado de mediciones en la comunidad internacional. El Sistema Internacional se convirtió en un sistema que pudiera ser adoptado por todos los países en el campo de la ciencia, la tecnología, las relaciones comerciales, la producción, los servicios, la investigación y la docencia.
HISTORIA:
El Sistema Internacional de Unidades (SI) proviene del Sistema Métrico Decimal. El Sistema Métrico Decimal fue adoptado en la I Conferencia General de Pesas y Medidas (CGPM) y ratificado en 1875 por 15 naciones. Para ese entonces se organizó la Convención del Metro, a la que asistieron representantes de 8 países, y en la que se nombró un Comité Internacional de Pesas y medidas (CIPM), con la finalidad de:
·         Estudiar el establecimiento de un conjunto de reglas para las unidades de medida.
·         Conocer la opinión de los círculos científicos, técnicos y educativos en todos los países.
·         Brindar recomendaciones para el establecimiento de un sistema práctico de unidades de medida para ser adoptado por todos los firmantes de la Convención del Metro.
Con el transcurso del tiempo se desarrollaron otros sistemas de medidas como:
·         El Sistema CGS sus siglas representan las unidades: centímetro, gramo y segundo, que fue utilizada principalmente por los físicos.
·         El sistema Giorgi conocido como el Sistema MKS, sus siglas representan al metro, el kilogramo y el segundo.
En el siglo XIX se desarrollaron las llamadas unidades eléctricas absolutas: el ohm, el volt y el ampere, impulsadas por el crecimiento de la industria electrotécnica, la cual buscaba la unificación internacional de las unidades eléctricas y magnéticas.
A mediados del siglo XX, después de diversos intercambios entre los medios científicos y técnicos del mundo, la X CGPM adoptó como unidades básicas: el metro, el kilogramo, el segundo, el ampere, el kelvin y la candela. Finalmente, en el año 1960 la resolución XII de la XI CGPM adoptó el nombre de Sistema Internacional de Unidades, cuya abreviatura es SI.
A partir de entonces, a través de las reuniones del CGPM y CIPM se le han añadido modificaciones de acuerdo con los avances de la ciencia y las necesidades de los usuarios del sistema.
Las ventajas que ofrece el SI, sobre todo los demás son múltiples. Entre ellas resaltaremos dos:
·         Es universal, ya que abarca todos los campos de la ciencia, la técnica, la economía y el comercio.
·         Es coherente, porque no necesita de coeficientes de conversión y todas sus unidades guardan proporcionalidad entre sí, simplificando la estructura de las unidades de medida y sus cálculos, lo que evita errores en su interpretación.


ERROR
En metrología, el error se define como la diferencia entre el valor verdadero y el obtenido experimentalmente. Los errores no siguen una ley determinada y su origen esta en múltiples causas. Atendiendo a las causas que los producen, los errores se pueden clasificar en dos grandes grupos: errores sistemáticos y errores accidentales estos últimos también conocidos como aleatorios.

Los errores sistemáticos son aquellos que permanecen constantes a lo largo de todo el proceso de medida y, por tanto, afectan a todas las mediciones de un modo definido y es el mismo para todas ellas.

Los errores accidentales o aleatorios son aquellos que se producen en las variaciones que pueden darse entre observaciones sucesivas realizadas por un mismo operador.
Estas variaciones no son reproducibles de una medición a otra y su valor es diferente para cada medida.


ERROR ABSOLUTO Y ERROR RELATIVO
En metrología, el error absoluto en una medida x de determinada magnitud es la diferencia entre dicho valor y el valor verdadero de la medida; se notará por Δx y, por tanto, su expresión es:

Δx=X-X0

donde x0 representa el valor verdadero de la medida. El error absoluto cuantifica la desviación en términos absolutos respecto al valor verdadero. No obstante, en ocasiones es más interesante resaltar la importancia relativa de esa desviación. Por ello, se define el error relativo como el cociente entre el error absoluto y el valor verdadero; notándolo por ε su expresión es:

ε =Δx/X0 y se multiplica por 100
Expresión del error
En metrología, presentar una medida efectuada, significa expresar el valor de dicha cantidad y expresar cual es su error; no tiene sentido establecer un determinado valor si no se acota debidamente el mismo. Así, la expresión correcta de una medida debe ser: x ± Δx
Dado que que existe imprecisión, este se escribe siempre con una única cifra significativa, es decir con el primer dígito comenzando por la izquierda distinto de cero; este número ser redondeado por exceso en una unidad si la segunda cifra significativa es 5 o mayor de 5. Este convenio de expresión del error encuentra dos excepciones: que la primera cifra significativa sea un 1 o que siendo la primera un 2, la segunda no llega 5; en estos casos, el error vendrá dado por las dos primeras cifras significativas, procediéndose al redondeo de la segunda en el mismo sentido que ya se ha explicado.
Se acepta como criterio que si el valor de una medida es leído de una tabla u otro lugar, sin indicación de su error, se tomará como error una unidad del orden de la última cifra con que se expresa; por ejemplo, si en una tabla aparece que el valor de una medida es de 0.056 sin ninguna indicación de error, se conviene en que el mismo es de ±0.001.

Determinación de errores en medidas directas.
Como ya se ha explicado, cuando se realice la medida de cualquier magnitud hay que indicar el error asociado a la misma. Dado que no conocemos el valor verdadero de la magnitud que deseamos medir, se siguen ciertos procedimientos para hacer una estimación del mismo y de su cota de error.

Determinación de errores en medidas indirectas.
Como ya se ha indicado, la medida indirecta de una magnitud se alcanza por aplicación de una fórmula a un conjunto de medidas directas, (variables independientes o datos), que las relacionan con la magnitud problema. Mediante dicha fórmula se obtiene también el error de la medida. Debe tenerse muy presente que si en la expresión matemática que relaciona las magnitudes aparecen números irracionales (tales como π o e) se deben elegir con un número de cifras significativas que no afecten a la magnitud del error absoluto de la magnitud que queremos determinar. En cualquier caso, esta elección determinará el valor del error asignado a dicha constante; en muchas ocasiones, sobre todo cuando se trabaja con calculadora u ordenador, lo más conveniente es tomar todos los decimales que aparecen para el número en cuestión: de esta manera, su error es muy pequeño y puede despreciarse frente a los del resto de las magnitudes que intervengan.
El procedimiento para determinar el error de la medida hecha de manera indirecta es el siguiente. Supongamos que la magnitud F es función de otras magnitudes físicas, estando relacionadas con ellas por la expresión genérica: ( , ,..., ) 1 2 N F = f x xx
Supongamos, además, que se han realizado medidas de las variables, xi, y se han determinado su valor y su error. Se obtiene la diferencial total de F en función de las diferenciales de las variables xi
y se hace la sumatoria de cada una de la derivadas parciales, finalmente después de pocos cálculos podemos llegar a obtener que el es la sumatorio de una constante multiplicado por el error relativo

ERRORES EN LA MEDICION
La Física y la Química son ciencias Experimentales y como tales se basan en las medidas de los experimentos realizados. Por supuesto que en estas medidas se cometen errores. Vamos a ver ahora qué tipos de errores hay desde todos los puntos de vista. Los errores cometidos pueden clasificarse según se produzcan por la forma en la que se realiza la medida en:
Error accidental: Aquellos que se producen debido a un error por causas cualesquiera y que no tienen por qué repetirse. Ejemplo: Leemos en el cronómetro 35 s y escribimos en el cuaderno 36 s.

Error sistemático: Se debe a una mala realización de las medidas que se repite siempre. Ejemplos: Se hacen medidas con un aparato que tenga un defecto de fabricación, miramos siempre la probeta desde un ángulo equivocado (error de paralaje)

Por otra parte cuando realizamos una medida nos alejamos siempre algo del valor real de la magnitud. Para determinar la precisión de una medida usamos dos tipos de errores:

Error absoluto: Desviación entre el valor medido y el valor real. Tiene las mismas unidades que la magnitud medida.

Error relativo: Cociente entre el error absoluto y el valor real. Es adimensional. Nos da una idea más exacta de la precisión a la hora de comparar dos o más medidas.
Ejemplo:
Al medir la longitud de una mesa de 120 cm hemos dado como resultado 118 cm. Calcula el error absoluto y relativo.
Haz los mismos cálculos si al medir la distancia entre Mieres y Oviedo 20 Km obtenemos un resultado de 20,5 km.
Cuál de las dos medidas será más precisa.


ERRORES EN LA MEDICION
Al hacer mediciones, las lecturas que se obtienen nunca son exactamente iguales, aun cuando las efectúe la misma persona, sobre la misma pieza, con el mismo instrumento, el mismo método y en el mismo ambiente (respetabilidad). Los errores surgen debido a la imperfección de los sentidos, de los medios, de la observación, de las teorías que se aplican, de los aparatos de medición, de las condiciones ambientales y de otras causas.
Medida del error: En una serie de lecturas sobre una misma dimensión constante, la inexactitud o incertidumbre es la diferencia entre los valores máximo y mínimo obtenidos.
Incertidumbre = valor máximo - valor mínimo
El error absoluto es la diferencia entre el valor leído y el valor convencionalmente verdadero correspondiente.
Error absoluto = valor leído - valor convencionalmente verdadero
El error absoluto tiene las mismas unidades de la lectura.
El error relativo es el error absoluto entre el valor convencionalmente verdadero.
Error relativo = error absoluto
Valor convencionalmente verdadero
Y como el error absoluto es igual a la lectura menos el valor convencionalmente verdadero, entonces:
Error relativo = valor leído -valor convencionalmente verdadero
Valor convencionalmente verdadero
Con frecuencia, el error relativo se expresa en porcentaje multiplicándolo por cien.
Clasificación de errores en cuanto a su origen.
 Errores por el instrumento o equipo de medición: Las causas de errores atribuibles al instrumento, pueden deberse a defectos de fabricación (dado que es imposible construir aparatos perfectos). Estos pueden ser deformaciones, falta de linealidad, imperfecciones mecánicas, falta de paralelismo, etcétera.
El error instrumental tiene valores máximos permisibles, establecidos en normas o información técnica de fabricantes de instrumentos, y puede determinarse mediante calibración.
Errores del operador o por el modo de medición: Muchas de las causas del error aleatorio se deben al operador, por ejemplo: falta de agudeza visual, descuido, cansancio, alteraciones emocionales, etcétera. Para reducir este tipo de errores es necesario adiestrar al operador:
Error por el uso de instrumentos no calibrados: instrumentos no calibrados o cuya fecha de calibración está vencida, así como instrumentos sospechosos de presentar alguna anormalidad en su funcionamiento no deben utilizarse para realizar mediciones hasta que no sean calibrados y autorizados para su uso.
Error por la fuerza ejercida al efectuar mediciones: La fuerza ejercida al efectuar mediciones puede provocar deformaciones en la pieza por medir, el instrumento o ambos.
Error por instrumento inadecuado: Antes de realizar cualquier medición es necesario determinar cuál es el instrumento o equipo de medición más adecuado para la aplicación de que se trate.
Además de la fuerza de medición, deben tenerse presente otros factores tales como:
- Cantidad de piezas por medir
- Tipo de medición (externa, interna, altura, profundidad, etcétera.)
- Tamaño de la pieza y exactitud deseada.
Se recomienda que la razón de tolerancia de una pieza de trabajo a la resolución, legibilidad o valor de mínima división de un instrumento sea de 10 a 1 para un caso ideal y de 5 a 1 en el peor de los casos. Si no es así la tolerancia se combina con el error de medición y por lo tanto un elemento bueno puede diagnosticarse como defectuoso y viceversa.
Errores por puntos de apoyo: Especialmente en los instrumentos de gran longitud la manera como se apoya el instrumento provoca errores de lectura. En estos casos deben utilizarse puntos de apoyo especiales, como los puntos Airy o los puntos Bessel (véase la figura 3.1.7).
Errores por método de sujeción del instrumento: El método de sujeción del instrumento puede causar errores un indicador de carátula esta sujeto a una distancia muy grande del soporte y al hacer la medición, la fuerza ejercida provoca una desviación del brazo.
La mayor parte del error se debe a la deflexión del brazo, no del soporte; para minizarlo se debe colocar siempre el eje de medición lo más cerca posible al eje del soporte.
Error por distorsión: Gran parte de la inexactitud que causa la distorsión de un instrumentó puede evitarse manteniendo en mente la ley de Abbe: la máxima exactitud de medición es obtenida si el eje de medición es el mismo del eje del instrumento.
Error de paralaje: Este error ocurre debido a la posición incorrecta del operador con respecto a la escala graduada del instrumento de medición, la cual está en un plano diferente El error de paralaje es más común de lo que se cree. Este defecto se corrige mirando perpendicularmente el plano de medición a partir del punto de lectura.
Error de posición: Este error lo provoca la colocación incorrecta de las caras de medición de los instrumentos, con respecto de las piezas por medir.
Error por desgaste: Los instrumentos de medición, como cualquier otro objeto, son susceptibles de desgaste, natural o provocado por el mal uso.
Error por condiciones ambientales: Entre las causas de errores se encuentran las condiciones ambientales en que se hace la medición; entre las principales destacan la temperatura, la humedad, el polvo y las vibraciones o interferencias (ruido) electromagnéticas extrañas.
1. Humedad
2. Polvo
3. Tempereratura
Todos los materiales que componen tanto las piezas por medir como los instrumentos de medición, están sujetos a variaciones longitudinales debido a cambios de temperatura. Para minimizar estos errores se estableció internacionalmente, desde 1932, como norma una temperature de 20C para efectuar las mediciones. En general, al aumentar la temperature crecen las dimensiones de las piezas y cuando disminuye la temperature las dimensiones de las piezas se reducen.

PATRON DE MEDICION

Un patrón de medición es una representación física de una unidad de medición. Una unidad se realiza con referencia a un patrón físico arbitrario o a un fenómeno natural que incluye constantes físicas y atómicas. Por ejemplo, la unidad fundamental de masa en el Sistema Internacional (SI) es el kilogramo.
Además de unidades fundamentales y derivadas de medición, hay diferentes tipos de patrones de medición, clasificados por su función y aplicación en las siguientes categorías:
a) patrones internacionales
b) patrones primarios
c) patrones secundarios
d) patrones de trabajo
Los patrones internacionales se definen por acuerdos internacionales. Representan ciertas unidades de medida con la mayor exactitud que permite la tecnología de producción y medición. Los patrones internacionales se evalúan y verifican periódicamente con mediciones absolutas en términos de unidades fundamentales.
Los patrones primarios (básicos) se encuentran en los laboratorios de patrones nacionales en diferentes partes del mundo. Los patrones primarios representan unidades fundamentales y algunas de las unidades mecánicas y eléctricas derivadas, se calibran independientemente por medio de mediciones absolutas en cada uno de los laboratorios nacionales.
Los patrones secundarios son los patrones básicos de referencia que se usan en los laboratorios industriales de medición. Estos patrones se conservan en la industria particular interesada y se verifican localmente con otros patrones de referencia en el área. La responsabilidad del mantenimiento y calibración de los patrones secundarios depende del laboratorio industrial.
Los patrones de trabajo son las herramientas principales en un laboratorio de mediciones. Se utilizan para verificar y calibrar la exactitud y comportamiento de las mediciones efectuadas en las aplicaciones industriales.
La unidad de masa métrica se definió como la masa de un decímetro cúbico de agua a una temperatura de máxima densidad. La representación material de esta unidad es el Kilogramo.
La libra (lb), establecida por la Weights and MeasuresAct, de 1963, se define como .45359237 kg exactamente.
La unidad métrica de longitud, el metro, se definió como la 1/104 parte del cuadrante meridiano que para a través de París.
La yarda se define como .9144 metros y una pulgada es 25.4 mm, ya que los patrones de unidades inglesas para medición se basan en patrones métricos.


IMPORTANCIA DE LA TOLERANCIA Y AGUSTES EN EL DISEÑO MECANICO
INTRODUCCIÓN Actualmente en cualquier producción de materiales existe la necesidad de imponer un análisis cuidadoso para poder lograr, desde el principio de elaboración la eliminación de problemas de ensamble. Es muy importante que el patrón sea el totalmente adecuado ya que determinara el tamaño en sus dimensiones. Sin embargo hay varios factores que afectan al resultado de lo que se desea obtener, algunos de los factores pueden ser el calentamiento de la maquina, el desgaste de las herramientas, así como problemas en los materiales, entre otros. Para ello es importante que se admitan algunas variaciones en las dimensiones especificadas tomando en cuenta que no alteren los requerimientos funcionales que se procuran satisfacer.
 La tolerancia es la cantidad total que le es permitido variar a una dimensión especificada, donde es la diferencia entre los límites superior e inferior especificados. El ajuste ocurre al ensamblar piezas, donde es la cantidad de juego o interferencia que resulta del ensamble.
Los ajustes pueden clasificarse de la siguiente manera:
               Con juego.
               Indeterminado o de transición.
               Con interferencia, contracción o forzado.
El tipo de ajuste es seleccionado a base de los requerimientos. Por ejemplo cunado se desea que una pieza se desplace dentro de la otra se utiliza un ajuste con juego, el ajuste forzado se utiliza cuando se desea que las dos piezas queden firmemente sujetas, y el ajuste deseado se logra aplicando tolerancias adecuadas a cada una de las partes ensambladas.
Las formas de expresar las tolerancias de la forma del dimensionamiento límite, en el cual el límite superior especificado se coloca arriba del límite inferior especificado. Cuando se expresa en un solo renglón, el límite inferior precede al superior y un guión separa los dos valores.
Otra forma de expresar las tolerancias se basa en el sistema ISO donde la dimensión especificada antecede a la tolerancia expresada mediante una letra y un número. La tolerancia depende de la dimensión, entre mayor sea la dimensión mayor puede ser la tolerancia. El tipo de ajuste se determina dependiendo de las dimensiones, ya que para piezas que se ensamblan es necesario analizar la interferencia máxima o mínima, esto depende de las dimensiones reales de las piezas que se ensamblan y de las tolerancias. Por ejemplo, para determinar la interferencia mínima solo basta en pensar que éste ocurrirá cuando ambas partes por ensamblar están en condición de material máximo, esto será la diferencia entre las dos. Sin embargo la interferencia máxima su condición de material debe estas dada en mínimo y eso será la diferencia entre las dos.
CONCLUSIÓN Las tolerancias son muy importantes en la elaboración, fabricación de cualquier material que es utilizado en la Industria ya que permite tener un mínimo grado de diferenciación, esto permitirá variar un poco a la dimensión especificada ya que al momento de estar en la fabricación existe la posibilidad de que haya variaciones en el material o en los instrumentos ya que en ocasiones las maquinas se calientan demasiado o simplemente exista un desgaste en las herramientas estas son causas de las tolerancias que se producen.