Artículos

7.6: Medir espacios. Más sobre medidas externas - Matemáticas

7.6: Medir espacios. Más sobre medidas externas - Matemáticas


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

I. En §5, consideramos los espacios de premedida, enfatizando principalmente la idea de ( sigma ) - subaditividad (Nota 5 en §5). Ahora enfatizaremos ( sigma ) - aditividad.

Definición 1

Una medida previa

[m: mathcal {M} rightarrow [0, infty] ]

se llama medida (en (S )) sif ( mathcal {M} ) es un ( sigma ) - ring (en (S )), y (m ) es ( sigma ) - aditivo en ( mathcal {M}. )

Si es así, el sistema

[(S, mathcal {M}, m) ]

se llama espacio de medida; (m X ) se llama la medida de (X in mathcal {M} ); ( mathcal {M} ) - los conjuntos se llaman (m ) - conjuntos medibles.

Tenga en cuenta que (m ) no es negativo y (m emptyset = 0, ) ya que (m ) es una medida previa (Definición 2 en §5).

Corolario ( PageIndex {1} )

Las medidas son ( sigma ) - aditivo, ( sigma ) - subaditivo, monótono y continuo.

Prueba

Utilice el Corolario 2 en §5 y el Teorema 2 en §4, notando que ( mathcal {M} ) es un ( sigma ) - anillo. ( Quad square )

Corolario ( PageIndex {2} )

En cualquier espacio de medida ((S, mathcal {M}, m), ) la unión y la intersección de cualquier secuencia de (m ) - conjuntos medibles es (m ) - medible en sí misma. También lo es (X-Y ) if (X, Y in mathcal {M}. )

Esto es obvio ya que ( mathcal {M} ) es un ( sigma ) - anillo.

Como se entiende que las medidas y otras premedidas son ( geq 0, ), a menudo escribimos

[m: mathcal {M} rightarrow E ^ {*} ]

por

[m: mathcal {M} rightarrow [0, infty]. ]

También decimos brevemente "medible" por " (m ) - medible".

Tenga en cuenta que ( emptyset in mathcal {M}, ) pero no siempre (S in mathcal {M} ).

Ejemplos de

(a) El volumen de intervalos en (E ^ {n} ) es una ( sigma ) - medida previa aditiva, pero no una medida ya que su dominio (los intervalos) no es un ( sigma ) - anillo.

(b) Sea ( mathcal {M} = 2 ^ {S}. ) Definir

[( forall X subseteq S) quad m X = 0. ]

Entonces (m ) es trivialmente una medida (la medida cero). Aquí cada conjunto (X subseteq S ) es medible, con (m X = 0 ).

(c) Sea de nuevo ( mathcal {M} = 2 ^ {S}. ) Sea (m X ) el número de elementos en (X, ) si es finito, y (m X = infty ) de lo contrario.

Entonces (m ) es una medida ("medida de conteo"). ¡Verificar!

(d) Sea ( mathcal {M} = 2 ^ {S}. ) Arregle algunos (p en S. ) Sea

[m X = left { begin {array} {ll} {1} & { text {if} p in X}, {0} & { text {de lo contrario}}. end { array} right. ]

Entonces (m ) es una medida (describe una "unidad de masa" concentrada en (p )).

(e) Un espacio de probabilidad es un espacio de medida ((S, mathcal {M}, m )), con

[S in mathcal {M} text {y} m S = 1. ]

En la teoría de la probabilidad, los conjuntos medibles se denominan eventos; (m X ) se llama probabilidad de (X, ) a menudo denotada por (p X ) o símbolos similares.

En los ejemplos (b), (c) y (d),

[ mathcal {M} = 2 ^ {S} text {(todos los subconjuntos de} S text {).} ]

Más a menudo, sin embargo,

[ mathcal {M} neq 2 ^ {S}, ]

es decir, hay conjuntos no medibles (X subseteq S ) para los cuales (m X ) no está definido.

De especial interés son los conjuntos (X in mathcal {M}, ) con (m X = 0, ) y sus subconjuntos. Los llamamos (m ) - conjuntos nulos o nulos. A uno le gustaría que fueran medibles, pero este no es siempre el caso de los subconjuntos de (X. )

Esto nos lleva a la siguiente definición.

Definición 2

Una medida (m: mathcal {M} rightarrow E ^ {*} ) se llama completa si todos los conjuntos nulos (subconjuntos de conjuntos de medida cero) son medibles.

Ahora desarrollamos un método general para construir medidas completas.

II. De §5 (Nota 5) recuerde que una medida externa en (S ) es una ( sigma ) - premedida subaditiva definida en todo (2 ^ {S} ) (incluso si no se deriva mediante Definición 3 en §5). En los ejemplos (b), (c) y (d), (m ) es tanto una medida como una medida exterior. (¿Por qué?)

Una medida exterior

[m ^ {*}: 2 ^ {S} rightarrow E ^ {*} ]

no necesita ser aditivo; pero considere este hecho:

[ text {Cualquier conjunto} A subseteq S text {divide} S text {en dos partes:} A text {en sí mismo y} -A. ]

También divide cualquier otro conjunto (X ) en (X cap A ) y (X-A; ) de hecho,

[X = (X cap A) cup (X-A) text {(disjunto).} ]

Queremos destacar aquellos conjuntos (A ) para los cuales (m ^ {*} ) se comporta "aditivamente", es decir, de modo que

[m ^ {*} X = m ^ {*} (X cap A) + m ^ {*} (X-A). ]

Esto motiva nuestra siguiente definición.

Definición 3

Dada una medida exterior (m ^ {*}: 2 ^ {S} rightarrow E ^ {*} ) y un conjunto (A subseteq S, ) decimos que (A ) es (m ^ {*} ) - medible si todos los conjuntos (X subseteq S ) se dividen "aditivamente" por (A; ) es decir,

[( forall X subseteq S) quad m ^ {*} X = m ^ {*} (X cap A) + m ^ {*} (X-A). ]

Como se ve fácilmente (ver Problema 1), esto es equivalente a

[( forall X subseteq A) ( forall Y subseteq-A) quad m ^ {*} (X cup Y) = m ^ {*} X + m ^ {*} Y. ]

La familia de todos los (m ^ {*} ) - conjuntos medibles generalmente se denota por ( mathcal {M} ^ {*}. ) El sistema ( left (S, mathcal {M} ^ { *}, m ^ {*} right) ) se denomina espacio de medida exterior.

Nota 1. La definición 3 se aplica únicamente a las medidas exteriores. Para las medidas, " (m ) - medible" significa simplemente "miembro del dominio de (m )" (Definición 1).

Nota 2. En (1) y (2), podemos reemplazar de manera equivalente el signo de igualdad ((=) ) por (( geq). ) De hecho, (X ) está cubierto por

[ {X cap A, X-A }, ]

y (X cup Y ) está cubierto por ( {X, Y }; ) por lo que la desigualdad inversa (( leq) ) de todos modos se cumple, por subaditividad.

Nuestro principal objetivo es demostrar el siguiente teorema fundamental.

Teorema ( PageIndex {1} )

En cualquier espacio exterior de medida

[ left (S, mathcal {M} ^ {*}, m ^ {*} right), ]

la familia ( mathcal {M} ^ {*} ) de todos (m ^ {*} ) - conjuntos medibles es un campo ( sigma ) - en (S, ) y (m ^ {*}, ) cuando se restringe a ( mathcal {M} ^ {*}, ) es una medida completa (denotada por (m ) y se llama (m ^ {*} ) - inducida medir; entonces (m ^ {*} = m ) en ( mathcal {M} ^ {*} )).

Prueba

Dividimos la prueba en varios pasos (lemas).

lema 1

( mathcal {M} ^ {*} ) está cerrado bajo complementación:

[ left ( forall A in mathcal {M} ^ {*} right) quad-A in mathcal {M} ^ {*}. ]

De hecho, el criterio de mensurabilidad (2) es el mismo para (A ) y (- A ) por igual.

lema 2

( conjunto vacío ) y (S ) son conjuntos ( mathcal {M} ^ {*} ). También lo son todos los conjuntos de medida exterior 0.

Prueba

Sea (m ^ {*} A = 0. ) Para demostrar (A in mathcal {M} ^ {*}, ) use (2) y la Nota 2.

Por lo tanto, tome cualquier (X subseteq A ) y (Y subseteq-A. ) Luego, por monotonicidad,

[m ^ {*} X leq m ^ {*} A = 0 ]

y

[m ^ {*} Y leq m ^ {*} (X cup Y). ]

Por lo tanto

[m ^ {*} X + m ^ {*} Y = 0 + m ^ {*} Y leq m ^ {*} (X cup Y), ]

según sea necesario.

En particular, como (m ^ {*} emptyset = 0, emptyset ) es (m ^ {*} ) - medible ( left ( emptyset in mathcal {M} ^ {*} derecho)).

Entonces es (S ) (el complemento de ( emptyset) ) por el Lema 1. ( Quad square )

lema 3

( mathcal {M} ^ {*} ) está cerrado bajo uniones finitas:

[ left ( forall A, B in mathcal {M} ^ {*} right) quad A cup B in mathcal {M} ^ {*}. ]

Prueba

Esta vez usaremos la fórmula (1). Con la Nota 2, basta con mostrar que

[( forall X subseteq S) quad m ^ {*} X geq m ^ {*} (X cap (A cup B)) + m ^ {*} (X- (A cup B) )). ]

Arregle cualquier (X subseteq S; ) como (A in mathcal {M} ^ {*}, ) que tengamos

[m ^ {*} X = m ^ {*} (X cap A) + m ^ {*} (X-A). ]

De manera similar, como (B in mathcal {M} ^ {*}, ) tenemos (reemplazando (X ) por (X-A ) en (1))

[ begin {alineado} m ^ {*} (XA) & = m ^ {*} ((XA) cap B) + m ^ {*} (XAB) & = m ^ {*} (X cap-A cap B) + m ^ {*} (X- (A cup B)), end {alineado} ]

desde

[X-A = X cap-A ]

y

[X-A-B = X- (A taza B). ]

Combinando (4) con (3), obtenemos

[m ^ {*} X = m ^ {*} (X cap A) + m ^ {*} (X cap-A cap B) + m ^ {*} (X- (A cup B )). ]

Ahora verifica eso

[(X cap A) cup (X cap-A cap B) supseteq X cap (A cup B). ]

Como (m ) es subaditivo, esto produce

[m ^ {*} (X cap A) + m ^ {*} (X cap-A cap B) geq m ^ {*} (X cap (A cup B)). ]

Combinando con (5), obtenemos

[m ^ {*} X geq m ^ {*} (X cap (A cup B)) + m ^ {*} (X- (A cup B)), ]

de modo que (A cup B in mathcal {M} ^ {*}, ) de hecho. ( quad square )

La inducción extiende el Lema 3 a todas las uniones finitas de ( mathcal {M} ^ {*} ) - conjuntos.

Observe que por el problema 3 en §3, ( mathcal {M} ^ {*} ) es un campo de conjunto, por lo tanto, seguramente un anillo. Por tanto, se le aplica el Corolario 1 del § 1. (Lo usamos a continuación).

lema 4

Dejar

[X_ {k} subseteq A_ {k} subseteq S, quad k = 0,1,2, ldots, ]

con todos (A_ {k} ) separados por pares.

Deje (A_ {k} in mathcal {M} ^ {*} ) para (k geq 1. ) ( (A_ {0} ) y la (X_ {k} ) necesita no ser ( mathcal {M} ^ {*} ) - conjuntos.) Entonces

[m ^ {*} left ( bigcup_ {k = 0} ^ { infty} X_ {k} right) = sum_ {k = 0} ^ { infty} m ^ {*} X_ {k }. ]

Prueba

Comenzamos con dos conjuntos, (A_ {0} ) y (A_ {1}; ) entonces

[A_ {1} in mathcal {M} ^ {*}, A_ {0} cap A_ {1} = emptyset, X_ {0} subseteq A_ {0}, text {y} X_ { 1} subseteq A_ {1}. ]

Como (A_ {0} cap A_ {1} = emptyset, ) tenemos (A_ {0} subseteq-A_ {1}; ) por lo tanto también (X_ {0} subseteq-A_ { 1} ).

ya que (A_ {1} in mathcal {M} ^ {*}, ) usamos la fórmula (2), con

[X = X_ {1} subseteq A_ {1} text {y} Y = X_ {0} subseteq-A, ]

para obtener

[m ^ {*} left (X_ {0} cup X_ {1} right) = m ^ {*} X_ {0} + m ^ {*} X_ {1}. ]

Por tanto, (6) es válido para dos conjuntos.

La inducción ahora cede fácilmente

[( forall n) sum_ {k = 0} ^ {n} m ^ {*} X_ {k} = m ^ {*} left ( bigcup_ {k = 0} ^ {n} X_ {k } right) leq m ^ {*} left ( bigcup_ {k = 0} ^ { infty} X_ {k} right) ]

por la monotonicidad de (m ^ {*}. ) Ahora deje (n rightarrow infty ) y pase al límite para obtener

[ sum_ {k = 0} ^ { infty} m ^ {*} X_ {k} leq m ^ {*} left ( bigcup_ {k = 0} ^ { infty} X_ {k} derecho).]

Como ( bigcup X_ {k} ) está cubierto por (X_ {k}, ) la ( sigma ) - subaditividad de (m ^ {*} ) también produce la desigualdad inversa. Así se demuestra (6). ( Quad square )

Prueba del teorema 1. Como notamos, ( mathcal {M} ^ {*} ) es un campo. Para mostrar que también está cerrado bajo uniones contables (a ( sigma ) - campo), sea

[U = bigcup_ {k = 1} ^ { infty} A_ {k}, quad A_ {k} in mathcal {M} ^ {*}. ]

Tenemos que demostrar que (U in mathcal {M} ^ {*}; ) o por (2) y la Nota 2,

[( forall X subseteq U) ( forall Y subseteq-U) quad m ^ {*} (X cup Y) geq m ^ {*} X + m ^ {*} Y. ]

Podemos asumir con seguridad que (A_ {k} ) son disjuntos. (De lo contrario, reemplácelos por conjuntos disjuntos (B_ {k} in mathcal {M} ^ {*}, ) como en el Corolario 1 §1.)

Para demostrar (7), corrija cualquier (X subseteq U ) y (Y subseteq-U, ) y deje

[X_ {k} = X cap A_ {k} subseteq A_ {k}, ]

(A_ {0} = - U, ) y (X_ {0} = Y, ) satisfaciendo todos los supuestos del Lema 4. Por lo tanto, por (6), escribiendo el primer término por separado, tenemos

[m ^ {*} left (Y cup bigcup_ {k = 1} ^ { infty} X_ {k} right) = m ^ {*} Y + sum_ {k = 1} ^ { infty } m ^ {*} X_ {k}. ]

Pero

[ bigcup_ {k = 1} ^ { infty} X_ {k} = bigcup_ {k = 1} ^ { infty} left (X cap A_ {k} right) = X cap bigcup_ {k = 1} ^ { infty} A_ {k} = X cap U = X ]

(como (X subseteq U). ) Además, por ( sigma ) - subaditividad,

[ sum m ^ {*} X_ {k} geq m ^ {*} bigcup X_ {k} = m ^ {*} X. ]

Por lo tanto, (8) implica (7); entonces ( mathcal {M} ^ {*} ) es un campo ( sigma ).

Además, (m ^ {*} ) es ( sigma ) - aditivo en ( mathcal {M} ^ {*}, ) como sigue del Lema 4 tomando

[X_ {k} = A_ {k} in mathcal {M} ^ {*}, A_ {0} = conjunto vacío. ]

Por tanto, (m ^ {*} ) actúa como una medida en ( mathcal {M} ^ {*} ).

Según el Lema 2, (m ^ {*} ) está completo; porque si (X ) es "nulo" ( (X subseteq A ) y (m ^ {*} A = 0 )), entonces (m ^ {*} X = 0; ) entonces (X in mathcal {M} ^ {*}, ) según sea necesario.

Así todo está probado. ( Quad square )

Por lo tanto, tenemos un método estándar para construir medidas: a partir de una medida previa

[ mu: mathcal {C} rightarrow E ^ {*} ]

en (S, ) obtenemos la ( mu ) - medida externa inducida

[m ^ {*}: 2 ^ {S} rightarrow E ^ {*} text {(§5);} ]

esto, a su vez, induce una medida completa

[m: mathcal {M} ^ {*} rightarrow E ^ {*}. ]

Pero necesitamos más: queremos que (m ) sea una extensión de ( mu, ) es decir,

[m = mu text {en} mathcal {C}, ]

con ( mathcal {C} subseteq mathcal {M} ^ {*} ) (lo que significa que todos los conjuntos ( mathcal {C} ) - son (m ^ {*} ) - medibles). Ahora exploramos esta pregunta.

lema 5

Sean ((S, mathcal {C}, mu) ) y (m ^ {*} ) como en la Definición 3 de §5. Entonces, para que un conjunto (A subseteq S ) sea (m ^ {*} ) - medible, es suficiente que

[m ^ {*} X geq m ^ {*} (X cap A) + m ^ {*} (x-A) quad text {para todos} X in mathcal {C}. ]

Prueba

Debemos demostrar que (9) es válido para cualquier (X subseteq S, ) incluso no para un conjunto ( mathcal {C} ) -.

Esto es trivial si (m ^ {*} X = infty. ) Asuma (m ^ {*} X < infty ) y arregle cualquier ( varepsilon> 0 ).

Según la Nota 3 en §5, (X ) debe tener una cubierta básica ( left {B_ {n} right } subseteq mathcal {C} ) para que

[X subseteq bigcup_ {n} B_ {n} ]

y

[m ^ {*} X + varepsilon> sum mu B_ {n} geq sum m ^ {*} B_ {n}. ]

(¡Explicar!)

Ahora, como (X subseteq cup B_ {n}, ) tenemos

[X cap A subseteq bigcup B_ {n} cap A = bigcup left (B_ {n} cap A right). ]

Similar,

[X-A = X cap-A subseteq bigcup left (B_ {n} -A right). ]

Por lo tanto, como (m ^ {*} ) es ( sigma ) - subaditivo y monótono, obtenemos

[ begin {alineado} m ^ {*} (X cap A) + m ^ {*} (XA) & leq m ^ {*} left ( bigcup left (B_ {n} cap A right) right) + m ^ {*} left ( bigcup left (B_ {n} -A right) right) & leq sum left [m ^ {*} left ( B_ {n} cap A right) + m ^ {*} left (B_ {n} -A right) right]. end {alineado} ]

Pero por supuesto, (9) es válido para cualquier ( mathcal {C} ) - conjunto, por lo tanto, para cada (B_ {n}. ) Así

[m ^ {*} left (B_ {n} cap A right) + m ^ {*} left (B_ {n} -A right) leq m ^ {*} B_ {n}, ]

y (11) rendimientos

[m ^ {*} (X cap A) + m ^ {*} (XA) leq sum left [m ^ {*} left (B_ {n} cap A right) + m ^ {*} left (B_ {n} -A right) right] leq sum m ^ {*} B_ {n}. ]

Por lo tanto, por (10),

[m ^ {*} (X cap A) + m ^ {*} (X-A) leq m ^ {*} X + varepsilon. ]

Haciendo ( varepsilon rightarrow 0, ) probamos (10) para cualquier (X subseteq S, ) de modo que (A in mathcal {M} ^ {*}, ) según sea necesario. ( quad cuadrado )

Teorema ( PageIndex {2} )

Deja que la premedida

[ mu: mathcal {C} rightarrow E ^ {*} ]

be ( sigma ) - aditivo en ( mathcal {C}, a ) semiring en (S. ) Sea (m ^ {*} ) el ( mu ) - externo inducido medir, y

[m: mathcal {M} ^ {*} rightarrow E ^ {*} ]

sea ​​la (m ^ {*} ) - medida inducida. Luego

(i) ( mathcal {C} subseteq mathcal {M} ^ {*} ) y

(ii) ( mu = m ^ {*} = m ) en ( mathcal {C} ).

Por lo tanto, (m ) es una ( sigma ) - extensión aditiva de ( mu ) (llamada su extensión de Lebesgue) a ( mathcal {M} ^ {*} ).

Prueba

Según el Corolario 2 en §5, ( mu ) también es ( sigma ) - subaditivo en el semironexión ( mathcal {C}. ) Por lo tanto, según el Teorema 2 en §5, ( mu = m ^ {*} ) en ( mathcal {C}. )

Para probar que ( mathcal {C} subseteq mathcal {M} ^ {*}, ) arreglamos (A in mathcal {C} ) y mostramos que (A ) satisface (9) , de modo que (A in mathcal {M} ^ {*}. )

Por lo tanto, tome cualquier (X in mathcal {C}. ) Como ( mathcal {C} ) es un semiring, (X cap A in mathcal {C} ) y

[X-A = bigcup_ {k = 1} ^ {n} A_ {k} text {(disjunto)} ]

para algunos conjuntos (A_ {k} in mathcal {C}. ) Por lo tanto

[ begin {alineado} m ^ {*} (X cap A) + m ^ {*} (XA) & = m ^ {*} (X cap A) + m ^ {*} bigcup_ {k = 1} ^ {n} A_ {k} & leq m ^ {*} (X cap A) + sum_ {k = 1} ^ {n} m ^ {*} A_ {k}. end {alineado} ]

Como

[X = (X cap A) cup (X-A) = (X cap A) cup bigcup A_ {k} text {(disjunto),} ]

la aditividad de ( mu ) y la igualdad ( mu = m ^ {*} ) en ( mathcal {C} ) producen

[m ^ {*} X = m ^ {*} (X cap A) + sum_ {k = 1} ^ {n} m ^ {*} A_ {k}. ]

Por lo tanto, por (12),

[m ^ {*} X geq m ^ {*} (X cap A) + m ^ {*} (X-A); ]

entonces por el Lema 5, (A in mathcal {M} ^ {*}, ) como se requiere.

Además, por definición, (m = m ^ {*} ) en ( mathcal {M} ^ {*}, ) por lo tanto en ( mathcal {C}. ) Así

[ mu = m ^ {*} = m text {en} mathcal {C}, ]

como se afirma. ( quad square )

Nota 3. En particular, el teorema 2 se aplica si

[ mu: mathcal {M} rightarrow E ^ {*} ]

es una medida (de modo que ( mathcal {C} = mathcal {M} ) es incluso un ( sigma ) - anillo).

Por lo tanto, cualquier ( mu ) puede extenderse a una medida completa (m ) (su extensión de Lebesgue) en un campo ( sigma ) -

[ mathcal {M} ^ {*} supseteq mathcal {M} ]

a través de ( mu ) - medida externa inducida (llámelo ( mu ^ {*} ) esta vez), con

[ mu ^ {*} = m = mu text {en} mathcal {M}. ]

Es más,

[ mathcal {M} ^ {*} supseteq mathcal {M} supseteq mathcal {M} _ { sigma} ]

(ver Nota 2 en §3); entonces ( mu ^ {*} ) es ( mathcal {M} ) - regular y ( mathcal {M} ^ {*} ) - regular (Teorema 3 de §5).

Nota 4. Una nueva aplicación de este proceso a (m ) no cambia (m ) (Problema 16).


Matemáticas 720: Teoría e integración de medidas

Este es un primer curso de posgrado sobre Teoría de Medidas y cubrirá los conceptos básicos de medidas, integración de Lebesgue, diferenciación, medidas de productos y espacios $ L ^ p $. Si el tiempo lo permite, también presentaremos los conceptos básicos del análisis de Fourier.

Objetivos de aprendizaje

  • Desarrollar familiaridad con las medidas, integración de Lebesgue, diferenciación y convergencia.
  • Acostúmbrate al nivel y la dificultad de los cursos de posgrado en matemáticas.

Prerrequisitos

Programa tentativo

  • Medidas exteriores, medidas, $ sigma $ -álgebras, teorema de extensión de Carathéodory y rsquos. Medidas de Borel, medidas de Lebesgue.
  • Funciones medibles, integral de Lebesgue (Teorema de convergencia monótona, Lema de Fatou y rsquos, Teorema de convergencia dominada).
  • Modos de convergencia (Teorema de Egoroff y rsquos, Teorema de Lusin y rsquos)
  • Medidas del producto (teoremas de Fubini-Tonelli), integral de Lebesgue $ n $ -dimensional
  • Medidas firmadas (Descomposición de Hahn, Descomposición de Jordan, Teorema Radon-Nikodym, cambio de variables)
  • Diferenciación (Teorema de diferenciación de Lebesgue)
  • $ L ^ p $ Espacios, desigualdad de Hölder & rsquos, desigualdad de Minkowskii & rsquos, completitud, integrabilidad uniforme, teorema de convergencia de Vitali & rsquos.
  • A esto le seguirán algunos temas especiales (por ejemplo, Análisis de Fourier).

Esquema del curso

  • El curso comenzará con la construcción de la medida de Lebesgue en $ mathbb^ n $, siguiendo aproximadamente a Bartle, capítulos 11 y ndash16.
  • Después de esto, desarrollaremos la integración en espacios de medida abstracta aproximadamente siguiendo a Cohn, capítulos 1 & ndash6 o Folland.
  • Si el tiempo lo permite, continuaré con un análisis de Fourier siguiendo aproximadamente el capítulo 8 de Folland.

Referencias

Dado que la teoría de la medida es fundamental para el análisis moderno, no hay escasez de referencias (traducción: I & rsquom no escribo notas de clase). I & rsquom enumerando algunas buenas referencias aquí. Si no sabe cuál elegir, le sugiero que pruebe Cohn o Folland.

  • Análisis real de G. B. Folland. (Un tratamiento completo y moderno con algunos temas adicionales agradables (topología, análisis funcional, análisis de Fourier y probabilidad). Muy recomendable si desea hacer su doctorado en algo relacionado con el análisis).
  • Teoría de la medida de D. L. Cohn. (Un poco más fácil de leer y más enfocado que [Folland])
  • Análisis real y complejo de W. Rudin. (Un clásico. Excelente, salvo la construcción de la medida de Lebesgue.)
  • Integración de Lebesgue en el espacio euclidiano de F. Jones. (Un poco detallado y fácil de leer, pero a un nivel un poco más bajo que este curso).
  • Análisis real de H. L. Royden. (Una vez más, una gran lectura, pero a un nivel un poco más bajo que este curso).
  • Si prefiere aprender de las notas de clase, aquí hay algunas de Lenya Ryzhik y Terry Tao. El último está disponible en formato PDF y también como libro publicado con regularidad.

Finalmente, cuando impartí este curso en 2013/14, dos estudiantes escribieron sus notas y las compartieron. Sus notas están aquí:

Si desea copiar / editar estas notas, la fuente de látex completa está disponible aquí, o puede clonarse a través de git en git.math.cmu.edu/pub/201312-measure. Si edita estas notas, considere hacer que sus cambios estén disponibles.


Elevaciones

Werner Strauss,. Kazimierz Musiat, en Handbook of Measure Theory, 2002

Proposición 4.11

Si (Ω, T, B, μ) es un espacio de medida de Baire con medida finita y una topología T completamente regular, entonces el ASLP implica que la medida μ es τ-aditiva y la terminación regular. Para cualquier espacio de medida topológica (Ω, T, B, μ) con el ASLP, la medida μ es necesariamente τ-aditiva.

De ello se deduce, por ejemplo, que la medida de Wiener restringida a completar el σ-álgebra de Baire en ℝ ¯ [0, 1] no tiene el ASLP. Pero la medida de Wiener considerada al completar el σ-álgebra de Borei tiene el USLP (ver, por ejemplo, Macheras y Strauss (1996b)).

Claramente, la última proposición plantea el problema de si las condiciones necesarias para la ASLP dado que hay suficientes? Por Babiker y Knowles (1978), existe un espacio de medida de Baire (Ω, T, B, μ) con compacto Ω, finito y no atómico μ de pleno apoyo, es decir τ-aditivo pero no finalización regular. Este espacio es un ejemplo de un espacio de medida compacto de Baire sin el ASLP.

Fremlin (1979) ha dado un ejemplo de un espacio de medición de radón en un conjunto compacto con compleción regular μ de soporte completo pero sin el ASLP, mejorando un resultado de Losert (1979) que carecía de regularidad de finalización. La regularidad de finalización es de interés aquí porque en casos importantes conocidos donde la ASLP Si es cierto, también se cumple la regularidad de finalización. Mokobodzki (1975) y Fremlin (1977) dieron lo contrario de la Proposición 4.11. Dalgas notó que este resultado es el paso principal hacia un resultado de fuertes levantamientos de Borei que mejoran el resultado de Mokobodzki y Fremlin. En el teorema posterior de Dalgas (¿199?) C representa el cardenal del conjunto de reales. Musial (1973) y Lloyd (1974) han dado diferentes enfoques.


Estadística multivariante

Hasta ahora hemos presentado la MDS clásica comenzando con una matriz de distancia (o disimilitud) ( mathbf D = (d_)_^ n ). En este entorno, el (d_) es, cuanto más distante, o diferente, el objeto (i ) está del objeto (j ). Luego convertimos ( mathbf D ) a una matriz de producto interior centrada ( mathbf B ), donde pensamos que ( mathbf B ) es una matriz de similitud. Finalmente encontramos una descomposición espectral truncada para ( mathbf B ):

[ mathbf D longrightarrow mathbf B longrightarrow mathbf Z = mathbf U boldsymbol Lambda ^ < frac <1> <2>>. ]

En lugar de usar la matriz de similitud ( mathbf B ) derivada de ( mathbf D ), podemos usar un concepto más general de semejanza en MDS.

Definición 6.4 A matriz de similitud se define como una (n times n ) matriz (< mathbf F> = (f_)_^ n ) con las siguientes propiedades:

Tenga en cuenta que cuando se trabaja con similitudes (f_), el mayor (f_) es, cuanto más similares sean los objetos (i ) y (j ).

La condición 1. implica que el objeto (i ) es tan similar al objeto (j ) como el objeto (j ) es al objeto (i ) (simetría).

La condición 2 implica que un objeto es al menos tan similar a sí mismo como a cualquier otro objeto.

Una elección común de similitud entre dos vectores es la coseno similitud, que se define como el coseno del ángulo entre los vectores. De manera equivalente, es el producto interno de los vectores después de que se hayan normalizado para tener una longitud uno:

[ cos theta = frac < mathbf x ^ top mathbf y> <|| mathbf x || _2 || mathbf y || _2> = langle frac < mathbf x> <| | mathbf x || _2>, frac < mathbf y> <|| mathbf y || _2> rangle ] Esto es simétrico (por lo que satisface la propiedad 1. para similitudes) y la similitud de un vector ( mathbf x ) consigo mismo es (1 ), y por lo tanto la propiedad 2. también se satisface (como ( cos theta leq 1 )).

Tenga en cuenta que debido a que la similitud del coseno usa el producto interno de los vectores normalizados, solo da una comparación relativa de dos vectores, no una absoluta: la similitud del coseno entre ( mathbf x ) y ( mathbf y ) es la igual que la similitud entre ( mathbf x ) y (a mathbf y ) para cualquier constante positiva (a ). Por lo tanto, solo deberíamos usar esta medida de similitud cuando las diferencias absolutas no sean importantes.

MDS con matrices de similitud

En esta sección, consideramos MDS usando medidas de semejanza en contraposición a las medidas de distancia / disimilitud. Comenzamos mostrando que podemos convertir una matriz de semejanza positiva semidefinida ( mathbf F ) en una matriz de distancia ( mathbf D ) y luego en una matriz de producto interior centrada ( mathbf B ), permitiendo Usemos el enfoque clásico de MDS de la sección anterior.

Prueba. En primer lugar, tenga en cuenta que como ( mathbf F ) es una matriz de similitud, (f_+ f_-2f_ geq 0 ) por la condición 2., por lo que (d_) están todos bien definidos (es decir, reales, no imaginarios). Es fácil ver que ( mathbf D ) es una matriz de distancias como se define en la Definición 6.1.

Ahora mostraremos que se cumple la ecuación (6.7). Sea ( mathbf A = - frac <1> <2> mathbf D odot mathbf D ) como en la Ecuación (6.4). Entonces un_= - frac <1> <2> d_^ 2 = f_- frac <1> <2> (f_+ f_). ]

Entonces, hemos demostrado que ( mathbf B = mathbf H mathbf F mathbf H ). Solo queda mostrar que ( mathbf D ) es euclidiana. Dado que ( mathbf F ) es semidefinido positivo por suposición, y ( mathbf H ^ top = mathbf H ), se deduce que ( mathbf B = mathbf H mathbf F mathbf H ) también debe ser positivo semidefinido. Entonces, según el teorema 6.1 ( mathbf D ) es una matriz de distancia euclidiana.

Esto nos dice cómo hacer MDS con una matriz de similitud ( mathbf F ). Primero aplicamos doble centrado a la matriz para obtener [ mathbf B = mathbf H mathbf F mathbf H ] y luego encontramos la descomposición espectral de ( mathbf B ) tal como hicimos en la sección anterior .

6.2.1 Atributos binarios

Una clase importante de problemas es cuando la similitud entre dos objetos cualesquiera se mide por el número de atributos comunes. Los datos subyacentes de cada objeto son un vector binario de 0 y 1 que indica la ausencia o presencia de un atributo. Estos vectores binarios luego se convierten en similitudes comparando qué atributos tienen dos objetos en común.

Ilustramos esto a través de dos ejemplos.

Ejemplo 4

Suponga que hay 4 atributos que deseamos considerar.

  1. Atributo 1: ¿Carnívoro? Si es así, ponga (x_1 = 1 ) si no, ponga (x_1 = 0 ).
  2. Atributo 2: ¿Mamífero? Si es así, ponga (x_2 = 1 ) si no, ponga (x_2 = 0 ).
  3. Atributo 3: ¿Hábitat natural en África? Si es así, ponga (x_3 = 1 ) si no, ponga (x_3 = 0 ).
  4. Atributo 4: ¿Puede trepar a los árboles? Si es así, ponga (x_4 = 1 ) si no, ponga (x_4 = 0 ).

Considere un león. Cada uno de los atributos está presente entonces (x_1 = x_2 = x_3 = x_4 = 1 ). Su vector de atributo es ( begin 1 & amp1 & amp1 & amp1 end^ top ).

¿Y un tigre? En este caso, 3 de los atributos están presentes (1, 2 y 4) pero 3 está ausente. Entonces, para un tigre, (x_1 = x_2 = x_4 = 1 ) y (x_3 = 0 ) o en forma vectorial, sus atributos son ( begin 1 & amp1 & amp0 & amp1 end^ top ).

¿Cómo podemos medir la similitud de leones y tigres en función de la presencia o ausencia de estos cuatro atributos?

Primero forme una tabla (2 times 2 ) de la siguiente manera. [ comenzar & amp1 & amp0 1 & amp a & amp b 0 & amp c & amp d end ] Aquí (a ) cuenta el número de atributos comunes tanto al león como al tigre (b ) cuenta el número de atributos que tiene el león pero el tigre no tiene (c ) cuenta el número de atributos que tiene el tigher tiene que el león no tiene y (d ) cuenta el número de atributos que no tienen ni el león ni el tigre. En lo anterior, (a = 3 ), (b = 1 ) y (c = d = 0 ).

¿Cómo podemos utilizar la información de la tabla (2 times 2 ) para construir una medida de similitud? Hay dos medidas de similitud de uso común.

El coeficiente de coincidencia simple (SMC) cuenta la ausencia o presencia mutua y la compara con el número total de atributos: [ begin frac. etiqueta <6.8> end] Tiene un valor de (0,75 ) para este ejemplo.

El Coeficiente de similitud de Jaccard solo cuenta la presencia mutua y la compara con el número de atributos que están presentes en al menos uno de los dos objetos: [ frac. ] Esto también es 0,75 en este ejemplo.

Aunque el índice Jaccard y SMC son iguales en este caso, esto no es cierto en general. La diferencia entre las dos similitudes puede ser importante. Por ejemplo, considere un análisis de la cesta de la compra en el que comparamos compradores. Si una tienda vende (p ) productos diferentes, podríamos registrar los productos comprados por cada comprador (su 'canasta') como un vector de longitud (p ), con un (1 ) en la posición (i ) si el comprador compró el objeto (i ), y (0 ) en caso contrario.

Es posible que la cesta de la mayoría de los compradores solo contenga una pequeña fracción de todos los productos disponibles (es decir, en su mayoría 0 en el vector de atributos). En este caso, el SMC generalmente será alto al comparar dos compradores cualesquiera, incluso cuando sus canastas son muy diferentes, ya que los vectores de atributos son en su mayoría (0 ) s. En este caso, el índice Jaccard será una medida de similitud más apropiada, ya que solo analiza la diferencia entre compradores sobre la base de los productos en sus canastas combinadas. Por ejemplo, considere una tienda con 100 productos y dos clientes. Si el cliente A compró pan y cerveza y el cliente B compró cacahuetes y cerveza, entonces el coeficiente de similitud de Jaccard es (1/3 ), pero el SMC es ((1 + 97) /100=0,98 ).

En situaciones en las que 0 y 1 llevan información equivalente con mayor equilibrio entre los dos grupos, el SMC puede ser una mejor medida de similitud. Por ejemplo, los vectores de variables demográficas almacenadas en variables ficticias, como el género, se compararían mejor con el SMC que con el índice de Jaccard, ya que el impacto del género en la similitud debería ser igual, independientemente de si el hombre se define como 0 y como mujer como un 1 o al revés.

Hay muchas otras formas posibles de medir la similitud. Por ejemplo, podríamos considerar versiones ponderadas de lo anterior si deseamos ponderar diferentes atributos de manera diferente.

Ejemplo 5

Consideremos ahora un ejemplo similar pero más complejo con 6 atributos no especificados (no los mismos atributos que en el Ejemplo 1) y 5 tipos de criaturas vivientes, con la siguiente matriz de datos, que consta de ceros y unos. [ comenzar & amp1 & amp2 & amp3 & amp4 & amp5 & amp6 Lion & amp1 & amp1 & amp0 & amp0 & amp1 & amp1 Jirafa & amp1 & amp1 & amp1 & amp0 & amp0 & amp1 Cow & amp1 & amp0 & amp0 & amp1 & amp0 & amp1 Sheep & amp0 & amp1 & amp0 & amp0 & amp0 & amp1 & amp0 & amp0 & amp0 & amp0 & amp0 & amp0 & amp0 & amp0 & amp0 & amp0 & amp0 & amp0 & amp0 & amp0 & amp0 & amp0 & amp0 & amp0 & amp0 & amp0 & amp0 & amp0 ] Suponga que decidimos usar el coeficiente de coincidencia simple (6.8) para medir la similitud. Entonces se obtiene la siguiente matriz de similitud. [ mathbf F = begin & amp text& amp text& amp text& amp text& amp text León & amp1 & amp2 / 3 & amp1 / 2 & amp1 / 2 & amp1 / 2 Jirafa & amp2 / 3 & amp1 & amp1 / 2 & amp1 / 2 & amp1 / 6 Vaca & amp1 / 2 & amp1 / 2 & amp1 & amp1 & amp1 / 3 Sheep & amp1 / 2 & amp1 & amp1 / 2 & amp1 / amp1 & amp1 / 2 & amp1 / 2 & amp1 / amp1 & amp1 / 2 & amp1 / 2 & amp1 / amp1 & amp1 / 2 & amp1 / 2 & amp1 / amp1 / 3 & amp1 end ] Se verifica fácilmente a partir de la definición que (< mathbf F> = (f_)_^ 5 ) es una matriz de similitud.

Veamos cómo haríamos esto en R.

Podemos usar la función dist en R para calcular esto más fácilmente. La función dist requiere que especifiquemos qué métrica usar. Aquí, usamos la distancia (L_1 ), que también se conoce como distancia de Manhattan. Tenemos que restar esto de la mayor distancia posible, que es 6 en este caso, para obtener la similitud, y luego dividir por 6 para obtener el SMC.

El índice de Jaccard se puede calcular de la siguiente manera:

Nuevamente, podemos calcular esto usando dist, pero esta vez usando la métrica de distancia binaria. Consulte la página de ayuda? Dist para comprender por qué.

Para hacer MDS en estos datos, primero necesitamos convertir de una matriz de similitud (F ) a una matriz de distancias (D ). Podemos usar la siguiente función para hacer esto:

Hagamos ahora MDS y comparemos los resultados del uso del índice SMC y Jaccard. Podríamos hacer esto calculando ( mathbf B = mathbf H mathbf F mathbf H ) y encontrando su descomposición espectral, pero dejaremos que R haga el trabajo por nosotros, y usaremos el comando cmdscale que toma una matriz de distancia como entrada. Entonces, escribamos una función para convertir de una matriz de similitud a una matriz de distancia.

Entonces, podemos ver que la elección del índice ha marcado una diferencia en los resultados.

6.2.2 Ejemplo: MDS clásica con datos MNIST

En la sección 4.3.1 vimos los resultados de hacer PCA en los dígitos manuscritos del MNIST. En la parte final de esa sección, hicimos PCA en una selección de todos los dígitos y graficamos las dos puntuaciones de PC principales, coloreadas según el dígito que representaban.

Ahora hagamos MDS con los mismos datos. Sabemos que si usamos la distancia euclidiana entre los vectores de imagen, estaremos haciendo lo mismo que PCA. Por lo tanto, primero convierta cada píxel de la imagen en binario, con un valor de 0 si la intensidad es inferior a 0,3 y de 1 en caso contrario. Luego podemos calcular una matriz de similitud usando los índices SMC y Jaccard.

Haremos lo que hicimos antes, y trazaremos las coordenadas coloreadas por el dígito que se supone que representa cada punto. Tenga en cuenta que no hemos utilizado estas etiquetas de dígitos en ningún momento.

Puede ver que obtenemos dos representaciones diferentes de los datos que difieren entre sí, y de la representación PCA que calculamos en el Capítulo 4.


Esta semana repasaremos el capítulo 4.2 de ELA. A diferencia de la última vez, ahora sigo ELA más o menos exactamente. Como solo hay una conferencia esta semana, no daré ejercicios esta semana, pero los pospondré hasta la próxima semana.

Lecture 23: Orthonormal bases

  • 23.1 Introduction
  • 23.2 Examples of orthonormal bases
  • 23.3 The Gram Schmidt Process
  • 23.4 Two lemmas (The statement of the second lemma should be that <y, u_k>=c_k for all k, NOT that <y, u_k>=0).
  • 23.5 Characterizations of when an orthonormal set is an orthonormal basis
  • 23.6 Illustration of Theorem

1 respuesta 1

Maybe I am missing something, but the following seems to suffice.

By the definition of the product measure (or Tonelli's Theorem if you prefer), $ (mu imes u)(E)=int 1_Ed(mu imes u)=int left(int 1_E(x,y)dmu(x) ight) d u(y). $ But $1_E(x,y)=1_(x)$, so $ int left(int 1_E(x,y)dmu(x) ight) d u(y)=int mu(E^y)d u(y)=sum_mu(E^y). $ Clearly $ sum_mu(E^y)=sum_mu(E^y), $ which was what you wanted.

EDIT: My measure theory, as you may have already noticed, is a bit rusty. Hopefully, there are not too many errors in the following. I follow the notation of 'Real Analysis and Probability' by Dudley. From page 134, the set $mathcal R$ of rectangles $A imes B$ with $A,B$ measurable is a semi-ring, and $ ho(A imes B)=mu(A) u(B)$ is countably additive on $mathcal R$. Then $ ho$ can be extended uniquely to a countably additive function (still denoted $ ho$) on the algebra $mathcal A$ generated by $mathcal R$. The product measure, $mu imes u$, you have defined, as far as I can tell, is then the outer measure (Caratheodory extension) generated by this $ ho$. Another extension would be $m(E)=sum_mu(E^y)$.

Observation: Any extension $alpha$ of $ ho$ satisfies $mleqalphaleq (mu imes u)$: Let $Esubsetigcup_A_k imes B_k$. Then $ alpha(E)leq sum_k alpha(A_k imes B_k)=sum_k mu(A_k) u(B_k). $ Taking the infimum yeilds $alpha(E)leq(mu imes u)(E)$. As for the other inequality, observe that if $F$ is a finite set such that $Esupsetigcup_E^y imes $, then $ alpha(E)geq sum_ alpha(E^y imes)=sum_ mu(E^y). $ Taking the supremum over finite sets $F$ yeilds $alpha(E)geq m(E)$. As a consequence, $m=(mu imes u)$ if and only if the product measure is unique (which may already indicate that the assertion may not hold in general).

If we use your example from update 1, $m(E)=0$ but $(mu imes u)(E)=infty$. In this relation, see the answer to this question. I will now argue that $(mu imes u)(E)=infty$ indeed holds. Given any $A_k,B_k$ such that $Esubsetigcup_^infty A_k imes B_k$, consider the family $ . $ This family must cover uncountably many of the points of $E$ (since $mu(igcup A_k)leqsummu(A_k)=0$ when the union/sum ranges over those $k$ such that $mu(A_k)=0$, and the complement of a Lebesgue-measure-zero set in [0,1] is uncountable). It follows that there is some $k$ such that $mu(A_k)>0$ and $B_k$ is uncountable, which in particular implies $ u(B_k)=infty$. But then $ sum_k mu(A_k) u(B_k)=infty. $

EDIT: Since counting measure is strictly localizable and Lebesgue measure is $sigma$-finite, Theorem 252B of 'Measure Theory Vol 2' by Fremlin applies. Perhaps Bogachev is talking about the c.l.d. product measure (in the words of Fremlin) when he says 'the' product measure.

EDIT: Using Lemma 417B from Fremlin Vol IV, one sees also that we can define an extension $alpha$ of $ ho$ by $alpha(E)=∫ν(E_x)dμ(x).$ Here, $xmapsto ν(E_x)$ is measurable by the lemma. As for $sigma$-additivity, note that if $E_n$ are disjoint sets, then $(E_n)_x$ are disjoint sets as well. Using that $mleqalphaleq (mu imes u)$, we see again that $m eq (mu imes u)$, by considering your example from update 1.


The best I can think of, are: Given a metric space $(X,d)$ , we can assign sigma-algebras.

1) Borel Measure: This is the sigma algebra generated by the open sets generated by the open balls in the metric.

Or, 2)Looking at some of the linked questions are that of a Hausdorff measure associated with a metric space:

But yours is an interesting question: given a measure triple (X, A, $mu$), where $A$ is a sigma algebra and $X$ is the underlying space, can this be the Borel algebra resulting from a metric space? I don't have a full answer but some obvious requirements are that $X$ must be metric , or at least metrizable. Still, while outside of the scope of your question, one can define measures on non-metric, non-metrizable spaces using the Borel sigma algebra.


Measure Theory

(Chapter 3 from G14FTA Further Topics in Analysis 2011-12)

Suitable for students with some knowledge of metric and topological spaces.

Brief description: In Measure Theory we look carefully at various ways to measure the size of a set. The theory makes rigorous the notions of length, area and volume, and generalises these notions. Measure Theory, along with the associated theory of (Lebesgue) integration, has important applications in many areas, including Functional Analysis, Harmonic Analysis and Probability Theory.


Besicovitch–Federer projection theorem.

Often, one is faced with the task of showing that some set, which is a solution to the problem under investigation, is in fact rectifiable, and hence possesses some smoothness. A major concern in geometric measure theory is finding criteria which guarantee rectifiability. One of the most striking results in this direction is the Besicovitch–Federer projection theorem, which illustrates the stark difference between rectifiable and unrectifiable sets. A basic version of it states that if $E subset <f R>^ < n >$ is a purely $m$-unrectifiable set of finite $m$-dimensional Hausdorff measure, then for almost every orthogonal projection $P$ of $ <f R>^ < n >$ onto an $m$-dimensional linear subspace, $mathcal ^ < m >( P ( E ) ) = 0$. (It is not particularly difficult to show that in contrast, $m$-rectifiable sets have projections of positive measure for almost every projection.) This deep result was first proved for $1$-unrectifiable sets in the plane by A.S. Besicovitch, and later extended to higher dimensions by H. Federer. Recently (1998), B. White [a19] has shown how the higher-dimensional version of this theorem follows via an inductive argument from the planar version.


Passenger Turning Path - 90°

The 90° turning path of a passenger vehicle measures the minimum possible turning radius needed when designing parking, loading, and drop-off spaces.

Measuring the inner and outer radii of the 90° turn, a minimum inner radius of 11’6” (3.5 m) and minimum outer radius of 19’2” (5.85 m) should be provided. Though the turning path requires a width of only 7’6” (2.3 m), additional clearances should be provided whenever possible to accommodate a larger variety of car sizes and driver abilities.

The 90° turning path of a passenger vehicle measures the minimum possible turning radius needed when designing parking, loading, and drop-off spaces.

Measuring the inner and outer radii of the 90° turn, a minimum inner radius of 11’6” (3.5 m) and minimum outer radius of 19’2” (5.85 m) should be provided. Though the turning path requires a width of only 7’6” (2.3 m), additional clearances should be provided whenever possible to accommodate a larger variety of car sizes and driver abilities.


Boundedness of Calderón–Zygmund Operators on Non-homogeneous Metric Measure Spaces

Let $left( ext< >!!chi!! ext< ,>,d,,mu ight)$ be a separable metric measure space satisfying the known upper doubling condition, the geometrical doubling condition, and the non-atomic condition that $mu left( left < x ight> ight),=,0$ for all $x,in , ext< >!!chi!! ext< >$ . In this paper, we show that the boundedness of a Calderón–Zygmund operator $T$ on $<^<2>>left( mu ight)$ is equivalent to that of $T$ on $<^

>left( mu ight)$ for some $p,in ,left( 1,,infty ight)$ , and that of $T$ from $<^<1>>left( mu ight)$ to $<^<1,,infty >>left( mu ight)$ . As an application, we prove that if $T$ is a Calderón–Zygmund operator bounded on $<^<2>>left( mu ight)$ , then its maximal operator is bounded on $<^

>left( mu ight)$ for all $p,in ,left( 1,,infty ight)$ and from the space of all complex-valued Borel measures on $ ext< >!!chi!! ext< >$ to $<^<1,,infty >>left( mu ight)$ . All these results generalize the corresponding results of Nazarov et al. on metric spaces with measures satisfying the so-called polynomial growth condition.


Ver el vídeo: Dimensiones de un cilindro para que el material sea mínimo. La Prof Lina M3 (Mayo 2022).