9
edits
mNo edit summary |
No edit summary |
||
Line 17: | Line 17: | ||
==Themen== | ==Themen== | ||
* | Im Folgenden werden die voraussichtlichen Themen der Vorlesung kurz vorgestellt: | ||
* | * Einführung in biologische neuronale Netze: Eine kurze Einführung, wie das biologische Vorbild funktioniert. Es wird außerdem darauf eingegangen, wie daraus die ersten künstlichen neuronalen Netze entstanden sind und warum man diese überhaupt verwenden möchte. | ||
* Perzeptrons/Multilagenperzeptrons: Die Klassiker der neuronalen Netze. Sie bieten die Möglichkeit, Muster anzutrainieren und später wiederzuerkennen. Unter Anwendung der üblichen Lernregeln, gehören sie zu der Klasse der überwacht lernenden Algorithmen. D.h., es muss während des Trainings immer zu einem Muster die richtige Lösung präsentiert werden. | |||
* Verschiedene Lernregeln für das überwachte Lernen: Hebb-Regel, Delta-Regel, Back-Propagation. | |||
* Weitere Grundlagen für neuronale Netze: z.B. Overfitting, wenn das neuronale Netz zu viel lernt und dadurch nicht mehr verallgemeinern kann. | |||
* Self-Organizing Feature Maps (SOM) oder Kohonen-Karten: Sie gehören zu der Klasse der unüberwacht lernenden Netze. Sie bilden die Eingabedaten auf einen niedrig-dimensionalen Raum ab. Diese Abbildung geschieht dabei selbständig, ohne Überwachung. Bildlich kann man dies sich so vorstellen, dass eine Karte der Eingabedaten angelegt wird, daher auch der Name. | |||
* Growing Neural Gas: In gewisser Weise ein Verwandter der SOM. Diese Art des Netzes erstellt selbständig die Struktur des Netzes ausgehend von einem einzelnen Neuron. | |||
* Rekurrente Netze: Ähnlich den Multilagenperzeptrons, aber mit Rückverschaltung innerhalb des Netzes. Dadurch wird es möglich, zeitliche Zusammenhänge zu lernen. | |||
* Reinforcement Learning: Dieses liegt zwischen dem überwachten und unüberwachten Lernen. Dem Netz werden dabei beim Trainieren nicht die Lösungen präsentiert, sondern nur Belohnungen verteilt, wenn das Netz richtige Lösungen errechnet hat. | |||
* Verschiedene weitere Lernverfahren sowie Verbesserungen der erwähnten Verfahren. | |||
* Beispiele aus der Kunst, in denen neuronale Netze verwendet wurden, u.a. mit einem Vortrag von Christoph Kilian, Student der Bauhaus-Uni Weimar. | |||
In den Übungen sollen verschiedene Programme zur Simulation von neuronalen Netzen gezeigt werden. Außerdem werden eigene Programme, voraussichtlich mit Processing, erstellt. Es soll aber auch die Möglichkeit geben, eigene Ideen auszuprobieren. Somit sind die Themen der Übungen nicht zwingend fest gesetzt. | |||
==Voraussetzungen== | ==Voraussetzungen== | ||
Es wird versucht, die Thematik ohne Grundlagen näher zu bringen. Trotzdem können mathematische Vorkenntnisse in den Bereichen lineare Algebra und evtl. auch Wahrscheinlichkeitsrechnung/Stochastik von Vorteil sein. | |||
==Anmeldung== | ==Anmeldung== | ||
Line 45: | Line 56: | ||
==Literatur== | ==Literatur== | ||
* Link zum Semesterapparat | * Link zum Semesterapparat | ||
* | * Kriesel, David: Ein kleiner Überblick über Neuronale Netze, 2010, [http://www.dkriesel.com/science/neural_networks Download] | ||
* Ritter, Helge, Martinetz, Thomas, Schulten, Klaus: Neuronale Netze: eine Einführung in die Neuroinformatik selbstorganisierender Netzwerke, Bonn: Addison-Wesley, 1991, ISBN 3-89319-131-3, [http://opac.ub.uni-weimar.de/DB=1/SET=1/TTL=41/SHW?FRST=49 OPAC] | |||
* Haykin, Simon: Neural Networks and Learning Machines, Third Edition, Upper Saddle River, New Jersey: Pearson Education Inc., 2009, ISBN 978-0-13-147139-9 | |||
==Links== | ==Links== | ||
[[GMU:Netze Linkliste]] | [[GMU:Netze Linkliste]] | ||
[[Category:SS10]] | |||
[[Category:Matthias Weber]] | |||
[[Category:Werkmodul]] | |||
[[Category:SS10]] | [[Category:SS10]] | ||
[[Category:Matthias Weber]] | [[Category:Matthias Weber]] | ||
[[Category:Werkmodul]] | [[Category:Werkmodul]] |
edits