Künstliche Intelligenz, die auch logisch denken kann

Das aktuellesösterreichische Forschungsprojekt Bilaterale KI zielt darauf ab, eine fortschrittliche künstliche Intelligenz zu entwickeln, die nicht nur aus großen Datenmengen lernen, sondern auch logisch denken und Schlussfolgerungen ziehen kann. Diese sogenannte „Broad AI“ soll zwei bisher getrennte Ansätze der KI-Forschung vereinen: das subsymbolische Denken, das auf der Verarbeitung großer Datenmengen basiert, und das symbolische Denken, das auf Logik und Regeln aufbaut.

Projektleiterin Martina Seidl und Key Researcher Günter Klambauer von der Johannes Kepler Universität Linz erklären, dass aktuelle KI-Systeme wie ChatGPT zwar sprachlich korrekte Sätze formulieren können, aber nicht in der Lage sind, deren Wahrheitsgehalt oder logische Konsistenz zu überprüfen. Das neue Projekt zielt darauf ab, eine KI zu entwickeln, die beide Fähigkeiten kombiniert. Die Forscher planen, die Logiksysteme bereits während des Trainingsprozesses in die KI zu integrieren. Dies könnte beispielsweise bedeuten, dass das Sprachmodell bei der Vorhersage von Wörtern auf logisches Wissen zurückgreift oder dass ein Logiksystem die Korrektheit der von der KI generierten Sätze überprüft. Das Forschungsteam orientiert sich dabei am menschlichen Gehirn als Vorbild, da Menschen effizienter lernen als künstliche neuronale Netzwerke. Sie können beispielsweise von einem einzelnen abstrahierten Beispiel lernen, während KI-Systeme oft tausende Varianten benötigen, um etwas sicher zu erkennen.

Die entwickelte Broad AI soll in verschiedenen Bereichen Anwendung finden, wo komplexe Planungen erforderlich sind, wie im Verkehr, im Gesundheitswesen oder im Energiemanagement. Als konkretes Beispiel wird die Steuerung von intelligenten Stromnetzen (smart grids) genannt, die eine effiziente Koordination verschiedener Komponenten und die Berücksichtigung sich ändernder Situationen erfordert. Die Forscher betonen auch die Wichtigkeit, ethische Aspekte zu berücksichtigen. Sie wollen Techniken entwickeln, um unethisches Verhalten von KIs zu verhindern, indem sie Methoden schaffen, mit denen man der KI bestimmte Regeln vorgeben kann. Die Festlegung dieser Regeln soll jedoch in einem demokratischen Prozess erfolgen.

Link: Cluster of Excellence „Bilateral Artificial Intelligence“

Das Projekt „Bilaterale KI“ zielt darauf ab, die künstliche Intelligenz (KI) auf die nächste Stufe zu heben. Die derzeitigen KI-Systeme sind in gewisser Weise eng gefasst. Sie konzentrieren sich auf eine bestimmte Anwendung oder Aufgabe wie die Objekt- oder Spracherkennung. Unser Projekt wird zwei der wichtigsten Arten von KI kombinieren, die bisher getrennt entwickelt wurden: symbolische und subsymbolische KI. Während die symbolische KI mit klar definierten logischen Regeln arbeitet, basiert die subsymbolische KI (wie ChatGPT) auf dem Training einer Maschine mit Hilfe großer Datensätze, um intelligentes Verhalten zu erzeugen. Diese Integration, die zu einer breit angelegten KI führt, soll etwas widerspiegeln, was der Mensch von Natur aus tut: die gleichzeitige Nutzung von kognitiven und argumentativen Fähigkeiten.

Künstliche Haut für komplexe Roboterstrukturen

Wissenschaftler haben eine innovative Methode entwickelt, um künstlich gezüchtete Haut auf die komplexen Oberflächen humanoider Roboter aufzubringen. Diese Technologie verspricht, die Bewegungsfähigkeit, Selbstheilungskräfte, integrierten Sensorfunktionen und das realistische Erscheinungsbild von Robotern erheblich zu verbessern.

Um eine stabilere Verbindung zwischen Roboterteilen und künstlicher Haut zu schaffen, wurde eine neue Technik mit speziellen V-förmigen Perforationen in festen Materialien entwickelt. Diese Innovation könnte nicht nur in der Robotik, sondern auch in der Schönheitsindustrie und in der Ausbildung von Chirurgen für rekonstruktive Eingriffe Anwendung finden. Für die Befestigung der Haut verwendeten die Forscher ein spezielles Kollagengel, dessen natürliche Viskosität es erschwerte, es in die winzigen Perforationen einzubringen.

Mit Hilfe des speziellen Gels gelang es, die feine Struktur der Haut nachzubilden und diese eng mit der Oberfläche zu verbinden. Professor Takeuchi und sein Team verfolgen mit ihrer Forschung nicht nur wissenschaftliche Erkenntnisse, sondern auch praktische Anwendungen in der Medizin. Das Konzept eines „Face-on-a-Chip“ könnte sich beispielsweise für die Erforschung von Hautalterung, Kosmetika oder chirurgische Eingriffe als sehr nützlich erweisen. Darüber hinaus könnten integrierte Sensoren die Wahrnehmungs- und Interaktionsfähigkeiten von Robotern verbessern. Obwohl die Forschung noch am Anfang steht, haben die Entwickler bereits neue Herausforderungen identifiziert, wie die Notwendigkeit von Oberflächenfalten und einer dickeren Epidermis, um eine menschenähnlichere Optik zu erreichen.

Dialekt in der Robotersprache erhöht seine Vertrauenswürdigkeit

Roboter werden zunehmend als Interaktionspartner mit Menschen eingesetzt, wobei soziale Roboter so konzipiert sind, dass sie den erwarteten Verhaltensnormen bei der Auseinandersetzung mit Menschen folgen und mit unterschiedlichen Stimmen und sogar Akzenten verfügbar sind. Einige Studien deuten darauf hin, dass Menschen es vorziehen, dass Roboter im Dialekt des Benutzers zu sprechen.

Kühne et al. (2024) untersuchten in einer Studie die Auswirkungen des Berliner Dialekts auf die wahrgenommene Vertrauenswürdigkeit und Kompetenz eines Roboters. Deutsche Muttersprachler sahen sich ein Online-Video mit einem NAO-Roboter, der entweder im Berliner Dialekt oder in Standarddeutsch sprach, und bewerteten seine Vertrauenswürdigkeit und Kompetenz. Dabei zeigte sich ein positiver Zusammenhang zwischen den selbst berichteten Berliner Dialektkenntnissen und Vertrauenswürdigkeit des im Dialekt-sprechenden Roboters. Bei der Analyse der demografischen Faktoren gab es einen positiven Zusammenhang zwischen den Dialektkenntnissen der Teilnehmer, der Dialektleistung und deren Bewertung der Kompetenz des Roboters für den Standard-Deutschsprachigen Roboter. Auch das Alter der Teilnehmer, das Geschlecht, die Aufenthaltsdauer in Berlin beeinflussten die Bewertungen, d. h., die Kompetenz des Roboters kann seine Vertrauenswürdigkeit positiv voraussagen. Menschen neigten offenbar dazu, Roboter zu bevorzugen, die ihnen irgendwie ähnlich sind.

Literatur

Kühne, Katharina, Herbold, Erika, Bendel, Oliver, Zhou, Yuefang & Fischer, Martin H. (2024). “Ick bin een Berlina”: dialect proficiency impacts a robot’s trustworthiness and competence evaluation. Frontiers in Robotics and AI, 10, doi:10.3389/frobt.2023.1241519.

Kooperation Mensch mit Roboter

Eine Studie der Hochschule Coburg zeigt, dass Menschen eine humanoide Form bei Robotern nicht immer als positiv empfinden. Untersucht wurde, welche Rolle die Vermenschlichung bei kooperativen Handbewegungen zwischen Mensch und Roboter spielt. Menschen neigen dazu, ein menschliches oder menschenähnliches Gegenüber zu imitieren, was auf die Aktivierung von Spiegelneuronen zurückzuführen ist, die beim Lernen durch Imitation eine wichtige Rolle spielen. Dies führt zu Bewegungsablenkungen bei der gemeinsamen Aufgabenbewältigung von Mensch und Roboter, so dass der Mensch aktiv gegen diese Ablenkungen arbeiten muss, was zu zusätzlichen Belastungen führt, wie in der Studie mit einem Roboterarm in menschenähnlicher Schulteraufhängung im Vergleich zur Tischaufhängung gezeigt wurde. Menschenähnlichkeit ist also nicht immer positiv zu bewerten, und der Grad der Menschenähnlichkeit muss im praktischen Einsatz von Robotern stets abgewogen werden, um eine Balance zwischen Intuitivität und Belastungsarmut zu finden.

Was soll ein Roboter im öffentlichen Raum dürfen?

Der öffentliche Raum bietet mit seinen Verkehrs- und Grünflächen sowie Innenbereichen, zum Beispiel Parks, Bahnhöfen oder Museen diverse Nutzungsmöglichkeiten. Er kann als Möglichkeitsraum verstanden werden, dessen Sinnhaftigkeit erst durch die Menschen, die sich darin aufhalten, konkret wird. So ist beispielsweise der Park für manche Menschen ein Ruhepol, für andere eine Sportanlage oder ein sozialer Treffpunkt. Dementsprechend fluide ist, was ein öffentlicher Raum ist und sein soll.

Die Interaktion zwischen Mensch und Roboter ist komplex und nicht immer leicht vorhersehbar. Aus ethischer Perspektive stellen sich viele Fragen: Wie soll ein Roboter auf verschiedene Verhaltensweisen von Menschen im öffentlichen Raum reagieren? Welche Formen der robotischen Unterstützungen sind wünschenswert, welche sind einer freien Entfaltung im öffentlichen Raum potenziell abträglich? Wie verändert der Einsatz eines Roboters unser Bild vom öffentlichen Raum – und wie kann diese Veränderung bereits in der Entwicklung gestaltet werden?

Diesen Fragen will das Forschungsprojekt „rokit“ nachgehen, und wird sich speziell mit ethischen Implikationen der Mensch-Roboter-Interaktion im öffentlichen Raum beschäftigen, dazu zählt beispielsweise die Interessenabwägung zwischen allen Beteiligten. Auf einer Meta-Ebene soll untersucht werden, was eine ethische Technikberatung kann, soll und muss. In diesem Zusammenhang ist die Frage nach Methoden einer integrierten Ethik interessant: Wie kann Ethik bereits im Entwicklungsprozess eingesetzt und Technologieentwicklung aktiv beeinflusst werden?

„Ziel des Projekts ‚rokit‘ ist es deshalb, interdisziplinäre Gestaltungsansätze sowie Test- und Prüfverfahren zu entwickeln, um einen verantwortungsvollen Einsatz von Robotern im öffentlichen Raum zu ermöglichen.

Verbundprojektrokit“: https://www.interaktive-technologien.de/projekte/rokit

Wahrnehmung der Umgebung durch Roboter

Eine präzise Wahrnehmung der Umgebung ist notwendig, damit ein Roboter sicher und effizient navigieren kann. Ein wichtiges Anwendungsfeld sind industrielle Umgebungen, ein sehr dynamisches Umfeld, besonders wenn der Einsatzort etwa ein Warenlager ist, das nicht von Beginn an für die Automation gedacht war. An der Universität in Örebro haben wir uns in der Forschung ganz bewusst für ein „semi-kontrolliertes Umfeld“ entschieden, in dem die Fahrzeuge langsamer als etwa Autos unterwegs sind und Änderungen eingeführt werden können, die dem Roboter Teilaufgaben erleichtern können. Hier lassen sich zudem Sicherheitswesten nutzen, die die Mitarbeitenden tragen und so zuverlässig zu erkennen sind – auch im Dunkeln. Wären wir direkt in den Straßenverkehr gegangen, hätten wir in dem gegebenen Umfeld zu viele Herausforderungen auf einmal gehabt.

Quelle

https://www.tum.de/aktuelles/alle-meldungen/pressemitteilungen/details/der-robotik-einen-weiteren-sinn-hinzufuegen (23-04-21)

EU-Projekt Sharework

Im EU-Projekt „Sharework“ entwickelte ein europäisches Konsortium aus sechs Forschungseinrichtungen, dreizehn Partnern und einer Normierungsinstanz neue Ansätze für die Zusammenarbeit von Mensch und Roboter. Die verschiedenen Software- und Hardwaremodule ermöglichten insbesondere auch Schwerlastrobotern wie Industrierobotern, mit Menschen zu interagieren, ohne dass physische Schutzbarrieren wie Zäune erforderlich seien.

Ziel war es, im Sinne einer effektiveren Zusammenarbeit vorhandene Barrieren in der Mensch-Roboter-Kollaboration zu überwinden, und zwar ohne Abstriche bei der Sicherheit in Kauf nehmen zu müssen. Das IWU fokussierte sich dabei auf übergreifende Sicherheitsaspekte.

Das Ergebnis ist nun ein modulares System, das in der Lage ist, die Umgebung eines Roboters und menschliche Handlungen durch „Wissen“ und Sensoren, Vorhersagen über zukünftige Zustände, „intelligente“ Datenverarbeitung, Augmented Reality sowie Gesten- und Spracherkennungsfunktionen zu verstehen.

Die entwickelten Module wurden in der Automobil-, Bahn-, Metall- und Investitionsgüterindustrie bereits mit Erfolg erprobt. Ein Einsatz ist jedoch auch in anderen industriellen Montage- und Produktionsprozessen denkbar, um die Effizienz von Fertigungsprozessen zu verbessern.

Empathischen Roboter?

Empathische Roboter sind Geräte, die in der Lage sind, menschliche Emotionen zu erkennen und angemessen darauf zu reagieren. Die Idee ist, dass diese Roboter eine bessere Interaktion mit Menschen ermöglichen, indem sie ihre Bedürfnisse und Emotionen verstehen und darauf reagieren können.

Allerdings muss man dazu sagen, dass die Technologie für empathische Roboter noch im Entwicklungsstadium ist und es momentan eher Prototypen und Forschungsprojekte als einsatzreife Produkte gibt. Es gibt jedoch bereits einige Anwendungen, bei denen empathische Roboter in Bereichen wie Pflege und Therapie eingesetzt werden, um die Interaktion mit Menschen zu verbessern.

Der Roboterhersteller Fanuc etwa unterstützt die Entwicklung eines einfühlsamen Roboters für den Einsatz in der Industrie. Das mit EU-Mitteln geförderte Forschungsprojekt „Fluently“ will eine Roboterplattform schaffen, die eine soziale Zusammenarbeit zwischen Mensch und Maschine ermöglicht.

Das auf drei Jahre angelegte Projekt unter der Leitung von Roboverse Reply verfolgt zwei Ziele: die Entwicklung eines auf Künstlicher Intelligenz basierenden, tragbaren Geräts für Industriearbeiter und Roboter sowie die Entwicklung eines speziellen Schulungszentrums mit der Bezeichnung „The Fluently RoboGym“, in dem Fabrikarbeiter und Roboter eine reibungslose Interaktion im Industrieprozess trainieren können.

Eine gute Zusammenarbeit zwischen Mensch und Maschine ist besonders wichtig in modernen intelligenten Fabriken, in denen sich Produktionsvolumen und Produkte ständig ändern und in denen mobile Transportsysteme und Roboter neben statischen Arbeitsplätzen stehen.

Die „Fluently“-Forscher konzentrieren ihre Entwicklungsarbeit auf drei für die europäische Wirtschaft wichtige Wertschöpfungsketten: die Demontage und das Recycling von Batterien für E-Bikes und Elektrofahrzeuge, Prüf- und Montageprozesse in der Luft- und Raumfahrtindustrie sowie die Aufarbeitung hochkomplexer Industrieteile mittels Laserbearbeitung.

Roboter könnten in Zukunft die Arbeitnehmer zumindest teilweise von der mit diesen Prozessen verbundenen Belastung befreien sowie einige der zeitaufwendigeren Aufgaben übernehmen. Dies würde helfen, einerseits die Kompetenzen und Erfahrungen der Arbeitnehmer zu erhalten und andererseits die Möglichkeiten ihrer Weiterqualifizierung erhöhen.

Literatur

https://www.bigdata-insider.de/fluently-forscht-am-empathischen-roboter-a-f6225a06edc3fc848bd496dc2ba50772/ (23-02-14)

Es ist noch ein langer Weg …

Am Forschungszentrum Jülich hat man ein neuronales Netzwerk mit 300 Millionen Synapsen in bislang unerreichter Geschwindigkeit simuliert, wobei es gelang, die Netzwerk-Aktivität viermal schneller als in Echtzeit zu berechnen. Für ihren Rekord nutzte man einen Prototyp des „neuronalen“ IBM-Supercomputers INC-3000.

Es handelt sich um ein Netzwerk, das von seiner Größe her etwa 1 Kubikmillimeter der Hirnrinde entspricht. Es besteht aus 80.000 Neuronen, die über 300 Millionen Synapsen miteinander verbunden sind. Ein solches Netzwerk hat noch keine Lernfunktion. Es soll vielmehr eine realitätsnahe Vernetzung abbilden und erzeugt gerade genügend Stimulus, um zu biorealistischen Aktivitätsmustern zu kommen. Das Netz beschäftigt sich praktisch selbst – man spricht hier auch von einem rekurrenten Netz, das mit den Aktivitätsmustern, die es produziert, wieder eigene Aktivitätsmuster hervorruft. Dieses Netzwerk ist sehr gut untersucht und eignet sich daher, um die Leistungsfähigkeit von Computerarchitekturen hinsichtlich der Simulation von neuronalen Netzen miteinander zu vergleichen. Allerdings umfasst dieses Netzwerk nur etwa ein Millionstel eines menschlichen Gehirns, und ist damit immer noch viel zu klein, um zu verlässlichen Aussagen über das Gehirn an sich zu kommen.

Biologische Gehirne sind vollkommen anders aufgebaut als die Computersysteme, wie sie beispielsweise im High-Performance-Computing (HPC) eingesetzt werden. Während in klassischen Supercomputern nur verhältnismäßig wenige, hochgetaktete Prozessoren unter strikter Trennung von Speicher- und Prozessoreinheiten Berechnungen durchführen, ist ein Gehirn aus einer massiven Anzahl hochgradig vernetzten Neuronen aufgebaut. Jedes Neuron für sich arbeitet zwar extrem langsam und damit energiesparend, dennoch ist unser Gehirn extrem leistungsfähig, da die Nervenzellen vollständig parallel arbeiten. Zudem ist der Grad der Vernetzung im Gehirn extrem. 80 Prozent des Hirnvolumens werden allein von Verbindungen zwischen Nervenzellen belegt. Die eigentlichen Neurone machen dagegen nur 16 bis 20 Prozent aus.

Ein weiteres grundlegendes Problem aller konventionellen Computerarchitekturen ist die strikte Trennung von Prozessor und Speicher. Biologische Nervenzellen dagegen können Informationen sowohl verarbeiten als auch speichern. In herkömmlichen Computersystemen müssen alle Informationen über eine enge Schnittstelle vom Prozessor zu einem Speichersystem transportiert werden, das ist der sogenannte Von-Neumann-Flaschenhals. Dies führt zu einer gewissen Verzögerung, Latenz genannt. Diese Latenz wird sich auch mit neuen Speichertechnologien nicht signifikant verbessern und bestimmt die Simulationsgeschwindigkeit maßgeblich, wie wir in unseren Untersuchungen nachweisen konnten. Die Kommunikation zwischen Nervenzellen ist zudem extrem energiesparend und geschieht fast ausschließlich über extrem spärliche neuronale Aktivitätsmuster. Übersetzt auf unsere Supercomputer bedeutet dies, dass man es ausschließlich mit sehr kurzen Datenpaketen zu tun hat. Die vorrangigen Computerstandards sind aber gerade für große Datenpakete optimiert. Auch bei der Kommunikation entstehen so für kurze Datenpakete große Latenzen.

Man nutze das INC-System von IBM vorrangig, weil sich damit unterschiedliche Schaltungen sehr flexibel herstellen lassen. FPGAs, Field Programmable Gate Arrays, enthalten frei programmierbare Logikbausteine mit eigenem Speicher und weiteren Hardware-Komponenten auf einem Chip. Weil der Speicher so nah an der Logik platziert ist, fallen die zuvor angesprochenen Speicher-Latenzen nicht ins Gewicht. Die Bausteine auf dem FPGA lassen sich außerdem beliebig umprogrammieren. Dies ist hilfreich, um beispielsweise verschiedene Architekturvarianten zu untersuchen. Da man die optimale Architektur und Schaltung im Vorfeld nicht immer eindeutig identifizieren kann, hilft die schnelle Rekonfigurierbarkeit, gute Lösungen herauszuarbeiten. So konnte man auch die optimale Schaltung finden, die den genannten Beschleunigungsfaktor ermöglichte. Derzeit werden in Simulationen noch sehr einfache Neuron- und Synapsenmodelle verwendet, die nur mit einer Handvoll mathematischer Gleichungen beschrieben werden können. Dieses Neuronenmodell ist aber mehr 120 Jahre alt. Es ist absehbar, dass eine realistischere Abbildung der Neuronendynamik und Lernvorgänge noch viel mehr Gleichungen benötigt, beispielsweise zur Beschreibung von Dendriten. Dabei handelt es sich um fein verzweigte Verästelungen, über die sich Nervenzellen untereinander verbinden. Heute weiß man: Diese Dendriten stellen keine passiven Leitungen dar und tragen aktiv zur Informationsverarbeitung bei. Schätzungsweise mehr als zwei Drittel der neuronalen Dynamik hängt davon ab. Diese dendritischen Strukturen finden heute noch gar keine Berücksichtigung. Zukünftig wird man also auch deutlich mehr Recheneinheiten benötigen, als heute in einem Prozessor zur Verfügung stehen, um die Vielzahl der gekoppelten Gleichungen in passabler Zeit zu lösen.

Grundsätzlich sind die Systeme umso schneller, je direkter sie ein neuronales Netzwerk auf Hardware-Ebene nachbilden. Das BrainScaleS-System aus Heidelberg besteht aus mehreren Wafern. Die Neuronen sind mitsamt ihren Verbindungen direkt auf dem Chip angelegt. Dieses System ist naturgemäß sehr schnell. Die Größe des Netzwerks, das sich auf diese Weise darstellen lässt, ist jedoch begrenzt. 300 Millionen Synapsen, wie wir sie simuliert haben, wären damit nicht machbar. Das Problem einer solchen Spezialarchitektur ist außerdem, dass man nachher unter Umständen nicht flexibel genug ist, um neue Features einzubauen.

Das britische System SpiNNaker gleicht dagegen eher einem herkömmlichen Superrechner. Es handelt sich hier um einen massiv-parallelen Computer, der über mehrere Hunderttausend ARM-Prozessoren, die eigentlich für Mobilfunkanwendungen optimiert sind, und ein besonderes Kommunikationsnetzwerk verfügt. Da hier ein zentraler Prozessor und ein davon abgetrennter Speicher vorliegen, läuft man wie bei allen herkömmlichen Rechnern automatisch in die Problematik mit der Latenz, also des verzögerten Transports von Informationen.

Grafikprozessoren (GPUs) werden derzeit vor allem für klassische neuronale Netze eingesetzt, eine realitätsgetreue Abbildung biologischer Netzwerke steht hier meist nicht im Vordergrund. Dabei geht es vor allem um Deep-Learning-Algorithmen. In GPU-basierten Systemen ist der Grad der Parallelität extrem hoch, das heißt, sie verfügen über vergleichsweise viele Recheneinheiten. Doch auch hier müssen Daten zwischen Prozessor und Speicher hin und her transportiert werden, was letztlich wieder das Problem mit der Latenz betont. Verglichen mit dem biologischen Gehirn sind GPUs außerdem immer noch extreme Energiefresser. Ein menschliches Gehirn hat eine Leistung von etwa 20 Watt, typische Serverfarmen mit GPU-basierten Rechenknoten kommen dagegen auf mehrere Mega-Watt, benötigen im Betrieb also das Hunderttausendfache an Energie.

Im Projekt „Advanced Computing Architectures (ACA): towards multi-scale natural-density Neuromorphic Computing” arbeitet man daran, Konzepte zu benennen, die man braucht, um große Netzwerke, die sehr komplex sind, berechnen zu können. Das wäre dann etwa ein Netzwerk mit 1 Milliarde Neurone, das so groß ist wie das Gehirn eines Säugetieres. In dem Projekt kooperiert man mit der RWTH Aachen, der University of Manchester und der Universität Heidelberg, die teils auch eigene neuromorphe Ansätze verfolgen. Übergeordnetes Ziel ist der Bau eines Computersystems, das es ermöglicht, Lernprozesse im Zeitraffer zu untersuchen. Das IBM INC-3000-System kam im Rahmen der Machbarkeitsstudie zum Einsatz und hat gezeigt, dass selbst bei Verwendung modernster Technologien dem erzielbaren Leistungsgewinn grundsätzlich Grenzen gesetzt sind. Neue, unkonventionelle Architekturen, Schaltungs- und Speicherkonzepte sind hier unumgänglich. Hierbei müssen Konzepte der Speicherarchitektur, der Kommunikation und der numerischen Berechnungseinheiten völlig neu elaboriert werden. Langfristiges Ziel ist die Entwicklung einer eigenen Architektur, die speziell auf diese Art von Simulationen zugeschnitten ist. Eine solche neuromorphe Beschleuniger-Architektur könnte dann idealerweise angekoppelt werden an die Jülicher Supercomputing-Infrastruktur. Man redet hier über einen großen Zeithorizont von 15 bis 20 Jahren.

Literatur

Arne Heittmann, Georgia Psychou, Guido Trensch, Charles E. Cox, Winfried W. Wilcke, Markus Diesmann and Tobias G. Noll (2022). Simulating the Cortical Microcircuit Significantly Faster Than Real Time on the IBM INC-3000 Neural Supercomputer, Front. Neurosci. , doi:10.3389/fnins.2021.728460

Neandertalergehirn für Roboter

Da der Paläogenetiker Svante Pääbo 2009 gemeinsam mit seinem Team das Neandertaler-Genom entschlüsselte, züchtet er nun Mini-Neandertalergehirne, die er in Roboter verpflanzen will. Von der Gehirnmasse der Neandertaler ist heute nichts mehr erhalten, allerdings gibt es im Labor des Institute of Molecular Biotechnology in Wien bereits stecknadelkopfgroße Abkömmlinge des urzeitlichen Vorbilds, die mit der Genschere CRISPR/Cas9 und natürlich dem Wissen über die alte DNA hergestellt wurden.


Anmerkung: Die Genschere Crispr/Cas9 ist eine neue Methode des Genome Editing und wird als Revolution in der Gentechnik gefeiert. Mit ihr lässt sich DNA in nahezu allen lebenden Zellen und Organismen einfach, schnell und vor allem präzise an einer bestimmten Stelle verändern. Das neue Präzisionswerkzeug ermöglicht es, DNA gezielt im Erbgut zu entfernen oder einzufügen. Crispr/Cas wird inzwischen standardmäßig in Forschung und Entwicklung eingesetzt und hat wesentlich zu deren Beschleunigung beigetragen. Vor allem bei der Heilung von Krankheiten und der Züchtung von Pflanzen, die beispielsweise der Klimakrise trotzen sollen, werden große Hoffnungen in Crispr/Cas gesetzt. Die Anwendung dieser Methode wirft jedoch auch ethische Fragen auf, die im Zusammenhang mit möglichen Anwendungen diskutiert werden.


Die Wissenschaftler setzten dann die Neandertaler-Variante des Gens NOVA1 in menschliche Stammzellen ein, wobei sie die Großhirnrinde der Neandertaler in einer winzig kleinernVersion wachsen ließen, wobei die Organoide wie Popcorn wirken, während die menschlichen Gehirne im Gegensatz eher eine Kugelform besitzen. Außerdem fanden sich im Inneren Strukturen, die sich auch bei Menschen zeigen, die mit neurologischen Defekten zu kämpfen haben. Wenn diese Organoide eines Tages perfek« sind, möchten die Forscher sie in krabbenähnliche Roboter verpflanzen, in der Hoffnung, dass die kleinen Gehirne die Maschinen steuern lernen.

Literatur

https://www.trendsderzukunft.de/forscher-zuechten-neandertaler-gehirne-um-sie-in-roboter-zu-pflanzen/ (21-11-28)