Saltar al contenido
Portada » Que es el principio de incertidumbre

Que es el principio de incertidumbre

Que es el principio de incertidumbre

Principio de incertidumbre con el tiempo y la energía

El Principio de Incertidumbre de Heisenberg es uno de los resultados más célebres de la mecánica cuántica y afirma que uno (a menudo, pero no siempre) no puede saber todas las cosas sobre una partícula (tal y como la define su función de onda) al mismo tiempo. Este principio se manifiesta matemáticamente como operadores no conmutativos.

El Principio de Incertidumbre de Heisenberg establece que existe una incertidumbre inherente al acto de medir una variable de una partícula. Aplicado comúnmente a la posición y el momento de una partícula, el principio afirma que cuanto más precisa es la posición, más incierto es el momento y viceversa. Esto es contrario a la física clásica newtoniana, que sostiene que todas las variables de las partículas son medibles con una incertidumbre arbitraria si se dispone de un equipo suficientemente bueno. El principio de incertidumbre de Heisenberg es una teoría fundamental de la mecánica cuántica que define por qué un científico no puede medir múltiples variables cuánticas simultáneamente. Hasta los albores de la mecánica cuántica, se consideraba un hecho que todas las variables de un objeto podían conocerse simultáneamente con una precisión exacta para un momento dado. La física newtoniana no ponía límites a la forma en que los mejores procedimientos y técnicas podían reducir la incertidumbre de las mediciones, de modo que era concebible que, con el cuidado y la precisión adecuados, se pudiera definir toda la información. Heisenberg hizo la audaz propuesta de que existe un límite inferior a esta precisión que hace que nuestro conocimiento de una partícula sea inherentemente incierto.

->  En que consiste la lluvia acida

El principio de incertidumbre de heisenberg parte 1

En mecánica cuántica, el principio de incertidumbre (también conocido como principio de incertidumbre de Heisenberg) es cualquiera de una variedad de desigualdades matemáticas[1] que afirman un límite fundamental a la exactitud con la que los valores de ciertos pares de cantidades físicas de una partícula, como la posición, x, y el momento, p, pueden predecirse a partir de las condiciones iniciales.

Tales pares de variables se conocen como variables complementarias o variables canónicamente conjugadas; y, dependiendo de la interpretación, el principio de incertidumbre limita hasta qué punto tales propiedades conjugadas mantienen su significado aproximado, ya que el marco matemático de la física cuántica no admite la noción de propiedades conjugadas simultáneamente bien definidas y expresadas por un único valor. El principio de incertidumbre implica que, en general, no es posible predecir el valor de una cantidad con una certeza arbitraria, incluso si se especifican todas las condiciones iniciales.

Introducido por primera vez en 1927 por el físico alemán Werner Heisenberg, el principio de incertidumbre afirma que cuanto más precisa sea la posición de una partícula, menos precisa será la predicción de su momento a partir de las condiciones iniciales, y viceversa[2] La desigualdad formal que relaciona la desviación estándar de la posición σx y la desviación estándar del momento σp fue derivada por Earle Hesse Kennard[3] ese mismo año y por Hermann Weyl[4] en 1928:

->  Experimento facil de quimica

El principio de incertidumbre | genio

Este artículo incluye una lista de referencias, lecturas relacionadas o enlaces externos, pero sus fuentes no están claras porque carece de citas en línea. Por favor, ayude a mejorar este artículo introduciendo citas más precisas. (Noviembre de 2018) (Aprende cómo y cuándo eliminar este mensaje de la plantilla)

Este artículo necesita citas adicionales para su verificación. Por favor, ayude a mejorar este artículo añadiendo citas a fuentes fiables. El material sin fuente puede ser cuestionado y eliminado.Buscar fuentes:  «Coordenadas canónicas» – noticias – periódicos – libros – erudito – JSTOR (noviembre de 2018) (Aprende cómo y cuándo eliminar este mensaje de la plantilla)

En matemáticas y mecánica clásica, las coordenadas canónicas son conjuntos de coordenadas en el espacio de fase que pueden utilizarse para describir un sistema físico en cualquier punto del tiempo. Las coordenadas canónicas se utilizan en la formulación hamiltoniana de la mecánica clásica. Un concepto estrechamente relacionado aparece también en la mecánica cuántica; véase el teorema de Stone-von Neumann y las relaciones de conmutación canónicas para más detalles.

¿qué es el principio de incertidumbre?

Los láseres tienen numerosas aplicaciones fuera del laboratorio de física. Estos dispositivos pueden emplearse para medir distancias con precisión y muchos instrumentos comerciales se utilizan en la construcción para el trazado de una obra. Cuando el haz de luz incide sobre un objeto sólido, se refleja y el aparato determina la distancia a la que se encuentra el objeto.

->  Marea muerta y viva

La diferencia entre la masa del haz de luz (fotones) y la masa del objeto es tan grande que el haz no molesta en absoluto al objeto. Una de las mediciones de interés fue el uso de un láser para medir la distancia de la Tierra a la Luna (véase la figura anterior). El impacto de los fotones del láser sobre la luna no tuvo absolutamente ningún efecto sobre la órbita lunar.

Esta web utiliza cookies propias para su correcto funcionamiento. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Más información
Privacidad