[o1] DRMfan^^ am 29.06. 14:07
+5
-10
Ist eigentlich echt praktisch, so können "Forschungspaper" nicht gegenvalidiert werden, weil ja dieselben Daten anderen Forschern nicht zur Verfügung stehen. Man kann also bahnbrechende Erfolge verkünden, die keiner prüfen kann.
Nicht, dass ich Microsoft das hier unterstelle - für mich ist nur KI keine Forschung, sondern Datenberge schütteln in der Hoffnung, das das Ergebnis selbst hilfreiche Ergebnisse liefert.
Nicht, dass ich Microsoft das hier unterstelle - für mich ist nur KI keine Forschung, sondern Datenberge schütteln in der Hoffnung, das das Ergebnis selbst hilfreiche Ergebnisse liefert.
@DRMfan^^: Dann solltest du dich noch mal mehr mit KI beschäftigen. KI ist nämlich mehr als maschinelles lernen.
Es fing schon vor über 50 Jahren an mit Suchen im Suchraum. Schach, Go und Co. ist auch alles KI. Dann kam Logik mit constraints und Solvern (SAT) und verhalten unter Unsicherheit.
Maschinelles lernen ist jetzt nur so beliebt weil wir endlich die notwendige Rechenleistung haben und selbst hier gib es viele unterschiedliche verfahren.
z.B. nutzen Bild basierte Modelle oft zwei neurale Netze. Ein Feature-Netz, das generisch ist und z.b. Kanten und Übergänge erkennt (unbewacht erlernbar) und ein zweites Netz, dass diese Features für den jeweiligen zweck nutzt (überwacht).
Hier ist ganz wichtig wie man da ran geht. Ein Bild hat z.b. sehr viele Dimensionen als Eingangsvector, aber nicht alle davon sind wichtig. Wenn man es schafft einen Algorithmus zur Dimensionsreduktion für den jeweiligen Anwendungszweck zu finden, z.b. PCA oder AutoEncoder, verbessert man die Leistung des Modells enorm bei weniger Aufwand. Sowas zu finden ist aber aufwendig.
Weiterführende KI geht auch nicht hin, um alles zu lernen. Es werden bestimmte Wissensbasen bereits vorgegeben (Wortbedeutungen oder Assoziationen) und aus diesem Wissen, zusammen mit neuen Daten werden neue Schlüsse gefolgert.
Auch wenn Werbung es gerne so aussehen lässt als ob man Daten in ein neurales Netz schmeißt und dann kommt die Lösung ist dies nicht so. Also ist Ki Forschung
Es fing schon vor über 50 Jahren an mit Suchen im Suchraum. Schach, Go und Co. ist auch alles KI. Dann kam Logik mit constraints und Solvern (SAT) und verhalten unter Unsicherheit.
Maschinelles lernen ist jetzt nur so beliebt weil wir endlich die notwendige Rechenleistung haben und selbst hier gib es viele unterschiedliche verfahren.
z.B. nutzen Bild basierte Modelle oft zwei neurale Netze. Ein Feature-Netz, das generisch ist und z.b. Kanten und Übergänge erkennt (unbewacht erlernbar) und ein zweites Netz, dass diese Features für den jeweiligen zweck nutzt (überwacht).
Hier ist ganz wichtig wie man da ran geht. Ein Bild hat z.b. sehr viele Dimensionen als Eingangsvector, aber nicht alle davon sind wichtig. Wenn man es schafft einen Algorithmus zur Dimensionsreduktion für den jeweiligen Anwendungszweck zu finden, z.b. PCA oder AutoEncoder, verbessert man die Leistung des Modells enorm bei weniger Aufwand. Sowas zu finden ist aber aufwendig.
Weiterführende KI geht auch nicht hin, um alles zu lernen. Es werden bestimmte Wissensbasen bereits vorgegeben (Wortbedeutungen oder Assoziationen) und aus diesem Wissen, zusammen mit neuen Daten werden neue Schlüsse gefolgert.
Auch wenn Werbung es gerne so aussehen lässt als ob man Daten in ein neurales Netz schmeißt und dann kommt die Lösung ist dies nicht so. Also ist Ki Forschung
@henne_boy: Du hast recht, es gibt durchaus "algorithmische" KI. Vereinfachend schrieb ich von den "großen Erfolgsmeldungen" der letzten Jahre, die meiner Kenntnis nach alle auf "Deep Learning" basieren, was wiederum einfach nur große neuronale Netze sind, wie man sie im Prinzip seit Jahrzehnten kennt.
@DRMfan^^: Die algorithmische KI ist auch Bestandteil der neuralen Netze.
Das problem ist nur, viele dieser Such- oder Solver Ansätze liegen in ihrer Komplexität in NP-vollstädnig. Da wir immer mehr und größere Daten haben ist das alleinige einsetzen solcher Algorithmen leider nicht mehr praktikabel. Netze haben den Vorteil sehr generisch zu sein.
Wie aus der News auch zu entnehmen wurde erst auf Fotoartefakte trainiert. Die Restoration ist ein separater Schritt. Oft werden aber viele KI aspekte kombiniert. Wie gesagt vorgefertigte Wissensbasen oder eine KI, die die andere Trainiert (Gesichtserkennung). Weiterer Vorteil, wenn das Modell einmal gelernt ist, ist es verdammt klein und schnell bei neuen Daten anwendbar .
Dern name "Triplet Domain Translation Network" lässt ja bereits vermuten, dass mehrere Netze genutzt werden. Wahrscheinlich ähnlich wie mit den Restricted Bolzmann-maschines, nur eben eine Ebene höher. Wahrscheinlich können einzelne Aspekte des Netzes auch für andere Zwecke genutzt werden
Das problem ist nur, viele dieser Such- oder Solver Ansätze liegen in ihrer Komplexität in NP-vollstädnig. Da wir immer mehr und größere Daten haben ist das alleinige einsetzen solcher Algorithmen leider nicht mehr praktikabel. Netze haben den Vorteil sehr generisch zu sein.
Wie aus der News auch zu entnehmen wurde erst auf Fotoartefakte trainiert. Die Restoration ist ein separater Schritt. Oft werden aber viele KI aspekte kombiniert. Wie gesagt vorgefertigte Wissensbasen oder eine KI, die die andere Trainiert (Gesichtserkennung). Weiterer Vorteil, wenn das Modell einmal gelernt ist, ist es verdammt klein und schnell bei neuen Daten anwendbar .
Dern name "Triplet Domain Translation Network" lässt ja bereits vermuten, dass mehrere Netze genutzt werden. Wahrscheinlich ähnlich wie mit den Restricted Bolzmann-maschines, nur eben eine Ebene höher. Wahrscheinlich können einzelne Aspekte des Netzes auch für andere Zwecke genutzt werden
@DRMfan^^: jein. Man könnte hier ein Tool zur Verfügung stellen, mit dem man selber Fotos restaurieren kann. Also selbst wenn man nicht über die Datenberge verfügt um selber den beschriebenen Algorithmus zu trainieren, dann könnte man trotzdem relativ einfach (in diesem Fall) überprüfen, ob die Ergebnisse bahnbrechend sind.
[re:1] GetthepoweR am 29.06. 17:14
@Robin01:Ich sehe das eher kritisch da man damit auch Geschichte im nachhinein verfälschen kann, eine Schelm wer sich was dabei denkt^^
[re:1] Johnny Cache am 29.06. 17:50
@Robin01: Und wer sagt dir, dass da nicht z.B. eine falsche Augenfarbe rekonstruiert wird? Der Algorithmus baut da Pixel hin, die "plausibel" sind - nicht, wie sie damals waren.
[re:3] Nunk-Junge am 29.06. 17:20
@DRMfan^^: Dann ist für Dich IT auch nur Schalter an / Schalter aus, denn mehr sind Computerchips auch nicht? Kann man so sehen, ist aber ziemlich sinnlos.
@Nunk-Junge: Die Chips werden konstruiert, man versteht ihre Funktionsweise und programmiert sie - wer will, kann Programme von c# bis runter zum Assembler nachvollziehen. Die meisten "Deep-Learning"- Ansätze sind halbblindes Testen und Irren, bis das Ergebnis sinnvoll erscheint - und dann merkt man, dass z.B. das tolle neuronale Netz, das Hunde erkennt, eigentlich in den EXIF die URLs von 5 Webseiten für Hundefans gelernt hat.
[re:3] Nunk-Junge am 30.06. 12:15
@DRMfan^^: In der Theorie hast Du recht, aber auch nur in der Theorie. Ein moderner Prozessor hat viele Milliarden Transistoren. Wenn Du da die genaue Funktionsweise nachvollziehen willst, dann wird Dein ganzes Leben nicht reichen.
@Nunk-Junge: Klar, die volle Parallelität permanent abbilden, überwachen und verstehen ist nicht zu leisten - aber die Algorithmen lösen konkret das Problem - und emulieren nicht etwas, von dem wir hoffen, dass es irgendwie Probleme lösen kann.
Aber prfüe doch mal, an welchem virtuellen Neuron ein Entscheidungsweg falsch abgebogen ist und wieso ...
Aber prfüe doch mal, an welchem virtuellen Neuron ein Entscheidungsweg falsch abgebogen ist und wieso ...
Jupp, schön fehlendes dazudichten lassen und nicht entsprechend kennzeichnen.
Die könnten DeepLearning ja mal sinnvollerweise für die Wettervorhersage nutzen und nicht um zukünftig Beweise fehlerhaft zu restaurieren.
Die könnten DeepLearning ja mal sinnvollerweise für die Wettervorhersage nutzen und nicht um zukünftig Beweise fehlerhaft zu restaurieren.
[o3] Reinhard62 am 29.06. 22:33
naja wenn man sich mit dieser Materie länger beschäftigt, kommt man nach längerer Zeit zu dem Punkt das diese Techniken ihre Grenzen haben, spätestens wenn es um die 'Wieder Papier Werdung' sprich Ausgabe geht. Außerdem kommt man auch zu dem Punkt an dem man sich frägt ob man das überhaupt will, weil es nie etwas mit der Realität zu tun hat. So wie das mit 'ganz normal' geschönten Fotos aus jedem Handy ist.
Finde die letzten beiden Fotos beachtlich mit den "Knitterfalten"/"Abnutzungserscheinungen".
Beim Rest ist das natürlich auch was vor allem durch einen gewissen Automatismus, aber erinnert mich ähnlich an die automatische Verbesserung von Google - von daher *wirkt* es für mich jetzt weniger beeindruckend, da es mir von da schon bekannt vorkommt - wobei ich das noch nie bei alten Fotos probiert habe, sondern nur bei Fotos vom Pixel.
Beim Rest ist das natürlich auch was vor allem durch einen gewissen Automatismus, aber erinnert mich ähnlich an die automatische Verbesserung von Google - von daher *wirkt* es für mich jetzt weniger beeindruckend, da es mir von da schon bekannt vorkommt - wobei ich das noch nie bei alten Fotos probiert habe, sondern nur bei Fotos vom Pixel.