Macht KI die Falsifizierbarkeit obsolet?

Mit den Fortschritten beim maschinellen Lernen , Data Mining und der Verarbeitung von Big Data werden Maschinen bald Muster finden, die entweder als Kausalität oder Korrelation interpretiert werden könnten, während wir keine Ahnung von den zugrunde liegenden Mechanismen haben.

Zur Zeit ist Falsifizierbarkeit das am meisten akzeptierte Konzept, um Wissenschaft und Pseudowissenschaft zu unterscheiden, indem Theorien mit hohem Risiko über die anderen gestellt werden.

Laut Falsifizierbarkeit brauchen wir Daten, um die Theorie zu falsifizieren (kommt meistens in den Naturwissenschaften vor), die bereits auf einer großen Menge von Daten basiert, die von KI verarbeitet werden .

Die Idee scheint nicht sicher, da sich die Kosten für die Datenerfassung und -verarbeitung seit Karl Popper-Tagen stark verändert haben.

Wird dies die Falsifizierbarkeit in Zukunft obsolet machen oder wo liege ich mit meinen Annahmen falsch?

Wie Sie dem von Ihnen verlinkten Artikel entnehmen können, ist die Falsifizierbarkeit spezifisch für Popper und nicht "am meisten akzeptiert". Obwohl einige vagere Versionen wie "Testbarkeit" tatsächlich von ausgezeichneter Wissenschaft verwendet werden, ist Falsifizierbarkeit als solche meist nur von historischem Interesse. Ich sehe jedoch nicht, inwiefern „wir brauchen Daten, um eine Theorie zu falsifizieren“ und „Datenerhebungs- und Verarbeitungskosten“ hier relevant sind. Wir brauchen Daten für fast alles, und die Kosten sind nicht spezifisch für die Verwendung zum Testen oder Fälschen.

Antworten (3)

Mit den Fortschritten beim maschinellen Lernen, Data Mining und der Verarbeitung von Big Data werden Maschinen bald Muster finden, die entweder als Kausalität oder Korrelation interpretiert werden könnten, während wir keine Ahnung von den zugrunde liegenden Mechanismen haben.

Wenn Sie nicht wissen, welcher Mechanismus eine Korrelation verursacht, können Sie das Muster nicht als Kausalität interpretieren.

Gegenwärtig ist Falsifizierbarkeit das am meisten akzeptierte Konzept, um Wissenschaft und Pseudowissenschaft zu unterscheiden, indem Theorien mit hohem Risiko über die anderen gestellt werden.

Laut Falsifizierbarkeit brauchen wir Daten, um die Theorie zu falsifizieren (kommt meistens in den Naturwissenschaften vor), die bereits auf einer großen Menge von Daten basiert, die von KI verarbeitet werden.

Aus Daten lässt sich keine Theorie ableiten. Jeder Datensatz ist mit einem unendlichen Satz mathematischer Gleichungen kompatibel, die die Daten beschreiben. Auch ist kein Datensatz gleichbedeutend mit einer Theorie, da es bei einer Theorie um die zugrunde liegende Realität geht, nicht um die Daten.

Wenn Sie eine Korrelation finden, können Sie vermuten, dass es einen zugrunde liegenden kausalen Mechanismus gibt, und über diesen Mechanismus raten, aber Raten ist keine Ableitung. Sobald Sie einen kausalen Mechanismus erraten haben, können Sie den erratenen Mechanismus testen, indem Sie weitere Beobachtungen machen: maschinelles Lernen kann während dieses Prozesses nützlich sein oder auch nicht.

Wenn Sie Poppers Position verstehen möchten, sehen Sie sich das Material in dieser Liste an:

http://fallibleideas.com/books#popper

Ich verstehe nicht, warum die Falsifizierbarkeit wegfallen sollte ... jede Theorie, die eine KI aufstellt, sollte immer noch falsifizierbar sein, um eine gute Theorie zu sein. Tatsächlich könnte die Falsifizierbarkeit wichtiger denn je werden: Sobald wir einer KI bis zu dem Punkt vertrauen, an dem die Behauptungen und Urteile der KI als richtig erachtet werden, genau weil „die KI es sagt“, sind wir in echten Schwierigkeiten. Wir sollten also sicherstellen, dass es unabhängige Mittel gibt, um diese Theorien, Behauptungen und Urteile zu testen.

Stellen Sie sich vor, die KI kommt mit so etwas wie diesem übertriebenen Beispiel p < 0.05, das auf einer großen Menge von Daten basiert, die über Jahre hinweg gesammelt wurden. Das dauert lange, bis es falsifiziert wird, wenn überhaupt. Brauchen wir neben der Falsifizierbarkeit noch etwas, das sich mehr auf die Erklärung von Mechanismen stützt?
@Xaqron Ich denke, wir hatten immer etwas, um so etwas zu widerlegen: gesunder Menschenverstand! (bei dem es hauptsächlich um zugrunde liegende Mechanismen geht). Aber ich nehme an, Ihre Frage ist dann: Wird der gesunde Menschenverstand noch anwendbar sein, da KIs eine Flut solcher Theorien hervorbringen werden, von denen einige eine viel größere anfängliche Plausibilität haben? Nun, gute Frage ... vielleicht werden unsere Methoden, diese Theorien auf die Probe zu stellen, andere KIs erfordern ... aber testen werden wir, und testen müssen wir.
Sie haben Recht, aber jemand braucht nur die richtigen Zahlen, um einen Artikel in medizinischen Fachzeitschriften zu veröffentlichen. Bei der Gesichtserkennung wissen wir nicht einmal, wie ML Gesichter klassifiziert, und es ist uns egal. Aber Statistiken zeigen, dass Maschinen das sogar besser können als Menschen. Wir verlieren Einsicht und dies wird sich in der Zukunft anhäufen.
@Xaqron Ja, ich stimme zu!

Ich glaube nicht, dass Falsifizierbarkeit (oder Theorie im Allgemeinen) obsolet wird. Maschinelles Lernen unterliegt noch immer den Gesetzen der Statistik. Es stimmt vielleicht, dass wir uns in einigen eingeschränkten Bereichen mit vielen Daten zunehmend auf schwer interpretierbare Modelle (z. B. künstliche neuronale Netze) statt auf einfachere, interpretierbare Modelle verlassen werden. Aber in anderen Bereichen werden wir nicht genügend Daten haben oder auf andere Fälle verallgemeinern wollen, in denen wir keine Daten haben. Dementsprechend möchten wir in vielen Kontexten mehr tun, als zukünftige Daten aus demselben Prozess vorherzusagen; Wir möchten den zugrunde liegenden Mechanismus verstehen, um beispielsweise vorherzusagen, was passiert, wenn wir den Mechanismus ändern, wie wir den Mechanismus verbessern oder in anderen Zusammenhängen verwenden könnten usw. Siehe eine verwandte Diskussion hier .