Problemas y Conceptos en la Teoría de la Probabilidad

Enviado por Chuletator online y clasificado en Filosofía y ética

Escrito el en español con un tamaño de 4,8 KB

Problemas del modelo causal

Explicación de hechos probabilistas particulares: en último término, es un modelo determinista, por lo que no existen. Puede también entenderse que los hay, pero no son explicables. Pueden tener causas probabilistas, pero lo mismo explica su ocurrencia y su no ocurrencia.

Explicación de hechos generales: el análisis causal sólo se aplica derivadamente, explica en medida que ejemplifica propiedades. La cuántica y la relatividad no son causales. Aparece el problema del concepto de causa.

Disolución del viejo problema

Hume defiende que fijarse en lo que ha sucedido en el pasado es explicación, no justificación, pero Goodman dice que no debemos ignorar nuestras prácticas habituales. La validez deductiva consiste en ajustarse a reglas, pero ¿cómo seleccionamos esas reglas? ¿Son intuitivas? Se destilan a partir de la práctica deductiva, es igualmente circular. El nuevo problema consiste en distinguir entre inducciones falsas y verdaderas, cambiando el problema por el de la definición de la diferencia entre inferencias válidas y no válidas. Para esto, no podemos usar únicamente elementos formales.

Una posible respuesta

Es considerar los grados de confirmación; una afirmación más o menos confirmatoria puede depender de conocimiento de fondo, es contextual (cuervos negros/ninguna cosa no negra es un cuervo/zapato rojo). No depende sólo de propiedades sintácticas, sino también de su forma lógica. Verdul.

Axiomatización de Kolmogorov

Subconjuntos de ese conjunto + operaciones. 0 ≤ P(A). P(T) = 1. P(A˄B) = P(A)P(B) si P(A˄B) ≠ 0. P(A˄B) = P(A/B)P(B) siempre. Si A y B son mutuamente inconsistentes, P(A˅B) = P(A) + P(B).

Bayes

[P(A/B) = P(B/A)P(A)]/P(B)

Concepto lógico de la probabilidad

Mide ciertas relaciones objetivas de apoyo evidencial, cuánto apoyo confiere la evidencia a la hipótesis. Su valor puede ser determinado a priori examinando el espacio de posibilidades. La teoría clásica de la probabilidad de Laplace puede entenderse así: casos favorables partido casos posibles.

El problema es que presupone que la estructura del espacio de posibilidades determina de manera no ambigua las posibilidades, y colapsa en la interpretación subjetivista.

Probabilidad objetiva

La probabilidad está determinada por ciertas propiedades físicas del sistema.

Frecuentismo

P(A) en una clase de referencia B es su frecuencia relativa de ocurrencias de A en B (el límite de la frecuencia cuando la clase de referencia tiende a infinito). El problema es que identifica frecuencia y probabilidad, haciendo que los eventos singulares no puedan tener probabilidad, que asigne mal…

Propensidad

Las probabilidades son propiedades objetivas de eventos singulares, dependen de la situación empírica. Problema de probabilidad inversa.

Probabilidad subjetiva

Bayesianismo: P(A) es el grado de creencia que un sujeto racional ideal asigna a A. Un sujeto racional es aquel con creencias consistentes que no obra en contra de sus propios intereses. Los grados de creencia se ajustan a los axiomas de la probabilidad. ¿Cómo se les puede asignar valor numérico? ¿Cuánto porcentaje de ganancias estaría dispuesto a arriesgar para ganar 1? Si no respeta los axiomas y asigna más de 1, el sujeto estaría siendo irracional y podría ser sometido a un dutch book.

Probabilidad como medida de la justificación

A cada argumento probable se le puede asociar una probabilidad condicionada: P(H/E), donde E son las premisas que se usan para prever la conclusión H. ¿Cuánta probabilidad le podemos dar a H asumiendo ciertos enunciados particulares E? La P debería aumentar con la evidencia. Los sujetos deben actualizar P(H) en función de las E que tengan. Se puede demostrar que P(H/E) > P(H) al menos en algunos casos. Bayes: P(H/E) = [P(E/H)P(H)]/P(E) = si H implica E, P(E/H) = 1 = P(H)/P(E), si P(E) < 1; P(H/E) > P(H). P(H) incrementa al tener en cuenta las evidencias, justifica su uso, justifica la inferencia. Cuanto menor es P(H/noE), mayor es P(H/E), es decir, cuanto menor es P(E) si no se da H… hipótesis arriesgadas = +P: C2.

Problemas

No permite distinguir entre dos hipótesis. Goodman y las esmeraldas, las mismas E apoyan H y H’, P(H’/E) > P(H’), ¿cuál de las dos H tiene más E? ¿Qué inferencia es mejor? P(H) > P(H’) es circular, una petición de principio. Todo descansa en las P simples que no pueden justificarse, son arbitrarias. La respuesta del Bayesianismo es que, aunque sea cierto que son arbitrarias, lo que importa es cómo se comporta H ante E. P_A(H) ≠ P_B(H), cuando se actualizan a partir de E, P_A(H) = P_B(H).

Entradas relacionadas: