Roboter sind zu Freundschaft nicht in der Lage

Roboter sind zu Freundschaft nicht in der Lage

Vermeintliche Freundschaften zwischen Mensch und Roboter beruhen lediglich auf Täuschungen und könnten sogar zur Vernachlässigung zwischenmenschlicher Freundschaften führen (Helen Ryland, The Open University, Milton Keynes). Demnach könnten Roboter nicht die Bedingungen für Freundschaft erfüllen, die laut Aristoteles Gegenseitigkeit, Empathie, Selbstvergewisserung, gemeinsame Aktivitäten, gegenseitige Verpflichtungen, Wohlwollen, Liebe und Anerkennung der Tugenden, Aufrichtigkeit und Gleichheit beruhen – selbst, wenn sie Menschen zunehmend besser imitieren. Auch wenn einer von Googles Softwareingenieuren davon überzeugt war, dass Googles Chatbot LaMDA ein Bewusstsein entwickelt hat, ist sich der Großteil der Experten einig: Die menschliche Kreativität und emotionale Intelligenz kann durch die KI nicht ersetzt werden (Samit Haddadin, Professor für Robotik und Systemintelligenz an der TU München).

Literatur

Koch, M.-C. (2023). Roboter in der Pflege: Ethikerin sieht Gefahr in „Fake-Beziehungen“.
WWW: https://www.heise.de/news/Roboter-in-der-Pflege-Ethikerin-sieht-Gefahr-in-Fake-Beziehungen-7493810.html (23-02-13)

Empathischen Roboter?

Empathische Roboter sind Geräte, die in der Lage sind, menschliche Emotionen zu erkennen und angemessen darauf zu reagieren. Die Idee ist, dass diese Roboter eine bessere Interaktion mit Menschen ermöglichen, indem sie ihre Bedürfnisse und Emotionen verstehen und darauf reagieren können.

Allerdings muss man dazu sagen, dass die Technologie für empathische Roboter noch im Entwicklungsstadium ist und es momentan eher Prototypen und Forschungsprojekte als einsatzreife Produkte gibt. Es gibt jedoch bereits einige Anwendungen, bei denen empathische Roboter in Bereichen wie Pflege und Therapie eingesetzt werden, um die Interaktion mit Menschen zu verbessern.

Der Roboterhersteller Fanuc etwa unterstützt die Entwicklung eines einfühlsamen Roboters für den Einsatz in der Industrie. Das mit EU-Mitteln geförderte Forschungsprojekt „Fluently“ will eine Roboterplattform schaffen, die eine soziale Zusammenarbeit zwischen Mensch und Maschine ermöglicht.

Das auf drei Jahre angelegte Projekt unter der Leitung von Roboverse Reply verfolgt zwei Ziele: die Entwicklung eines auf Künstlicher Intelligenz basierenden, tragbaren Geräts für Industriearbeiter und Roboter sowie die Entwicklung eines speziellen Schulungszentrums mit der Bezeichnung „The Fluently RoboGym“, in dem Fabrikarbeiter und Roboter eine reibungslose Interaktion im Industrieprozess trainieren können.

Eine gute Zusammenarbeit zwischen Mensch und Maschine ist besonders wichtig in modernen intelligenten Fabriken, in denen sich Produktionsvolumen und Produkte ständig ändern und in denen mobile Transportsysteme und Roboter neben statischen Arbeitsplätzen stehen.

Die „Fluently“-Forscher konzentrieren ihre Entwicklungsarbeit auf drei für die europäische Wirtschaft wichtige Wertschöpfungsketten: die Demontage und das Recycling von Batterien für E-Bikes und Elektrofahrzeuge, Prüf- und Montageprozesse in der Luft- und Raumfahrtindustrie sowie die Aufarbeitung hochkomplexer Industrieteile mittels Laserbearbeitung.

Roboter könnten in Zukunft die Arbeitnehmer zumindest teilweise von der mit diesen Prozessen verbundenen Belastung befreien sowie einige der zeitaufwendigeren Aufgaben übernehmen. Dies würde helfen, einerseits die Kompetenzen und Erfahrungen der Arbeitnehmer zu erhalten und andererseits die Möglichkeiten ihrer Weiterqualifizierung erhöhen.

Literatur

https://www.bigdata-insider.de/fluently-forscht-am-empathischen-roboter-a-f6225a06edc3fc848bd496dc2ba50772/ (23-02-14)

ChatGPT

ChatGPT steht für „Chat Generative Pretrained Transformer„. Es handelt sich hierbei um einen OpenAI-Modell, das mithilfe von maschinellem Lernen trainiert wurde, um auf natürliche Sprache basierende Fragen zu beantworten. ChatGPT verwendet einen Transformer-basierten Ansatz, um menschenähnliche Konversationen zu ermöglichen.

Chat-GPT stellt sich vor

Chat-GPT (Generative Pre-trained Transformer) ist eine Anwendung, die auf menschliche Texteingaben mit einer möglichst sinnvollen Textausgabe reagiert. Sie beantwortet beispielsweise Fragen oder erstellt Texte gemäß Anweisung. Die Qualität der ausgegebenen Texte ist deutlich höher als bei bisherigen KIs und korreliert mit Qualität, Präzision und Konstruktivität der Eingaben des Nutzers. Chat-GPT ist über Web-Browser erreichbar unter der Adresse https://chat.openai.com . Für die Nutzung ist die Erstellung eines Accounts unter Angabe einer E-Mail-Adresse erforderlich. Für seine Antworten greift die Anwendung auf einen Pool aus Daten aus dem Jahr 2021 zurück und verfeinert das gespeicherte Wissen aber auch aus Nutzereingaben, die auf Plausibilität geprüft werden. Die KI ist darauf programmiert, hilfreich, höflich und konstruktiv zu agieren, wobei in ihr einige grundlegende ethische Normen implementiert sind, wie etwa dass durch seine Antworten Menschen nicht zu Schaden kommen. Hinter Chat-GPT steht der Software-Entwickler Sam Altman, dessen Firma OpenAI im Silicon Valley in San Francisco ansässig ist.

Wenn man ChatGPT direkt fragt:

Lieber ChatGPT, könntest Du Dich einmal vorstellen, damit Menschen einmal wissen, was Du genau bist?

Ich bin ChatGPT, ein Sprachmodell, das von OpenAI trainiert wurde. Ich bin in der Lage, natürliche Sprache zu verstehen und zu generieren und kann daher in vielen Anwendungen wie Chatbots, automatischen Textgeneratoren und mehr eingesetzt werden. Ich bin ständig darauf ausgelegt, mein Wissen und meine Fähigkeiten zu verbessern, indem ich auf neue Daten und Anwendungen trainiert werde. Ich bin hier um Ihnen zu helfen, Fragen zu beantworten und Informationen zu bereitstellen.

Kannst du ein bisschen genauer beschreiben, auf welche Quellen du bei deinen Antworte zurückgreifst?

ChatGPT ist ein sogenannter „Transformer“-basierter Sprachgenerator, der auf einer riesigen Menge an Texten trainiert wurde, um natürliche Sprache zu verstehen und zu produzieren. Während des Trainingsprozesses wurde dem Modell eine große Menge an Texten zur Verfügung gestellt, die aus verschiedenen Quellen stammen, wie z.B. Nachrichtenartikel, Bücher, Blogs, soziale Medien und viele mehr. So erlernt das Modell die verschiedenen Schreibstile und die Regeln der Grammatik und des Wortschatzes, sowie die verschiedenen Kontext und Bedeutungen eines Wortes. Durch diesen Prozess wird ChatGPT in der Lage sein, auf eine Vielzahl von Fragen und Anfragen zu antworten und auf unterschiedliche Weise zu schreiben.

Wie wichtig wirst Du eines Tages für uns Menschen sein?

Ich werde wahrscheinlich eine wichtige Rolle in vielen Bereichen spielen, wie zum Beispiel im Kundenservice, in der Produktentwicklung und im Geschäftsprozessmanagement. Ich kann auch dazu beitragen, menschliche Fehler zu reduzieren und die Effizienz in vielen Aufgabenbereichen zu verbessern. Allerdings wird es immer wichtig sein, dass Menschen die Kontrolle behalten und entscheiden, wie und wann ich eingesetzt werden sollte.

Was machst du, wenn Dir Menschen dumme Fragen stellen?

Ich bin programmiert, um auf alle Fragen, die mir gestellt werden, so gut wie möglich zu antworten. Ich habe keine Fähigkeit, Fragen als „dumm“ zu beurteilen. Ich versuche immer, so präzise und hilfreich wie möglich zu antworten, unabhängig davon, wie leicht oder schwierig die Frage ist. Wenn ich eine Frage nicht verstehe oder nicht genug Informationen habe, um sie zu beantworten, werde ich mein Bestes tun, um zu erklären, warum ich das tue und wie ich helfen kann, die Frage zu klären.

Künstliche Intelligenz und Gesichtserkennung

Der Blick in ein neues Gesicht, der Klang einer unbekannten Stimme ist für das menschliche Gehirn eine große Herausforderung, denn in weniger als einer halben Sekunde wird entschieden, wem man vertraut, wen man man und für wie intelligent man diese Person hält, was auf einer erstaunlichen Arbeitsleistung des Gehirns beruht.

Schon als Babys lernen Menschen Gesichtsausdrücke zu lesen und auch wenn diese älter werden, hören sie nicht auf, die Emotionen der Mitmenschen zu studieren und zu versuchen, hinter deren Fassade zu blicken. Dabei spielt die Stimme eine entscheidende Rolle, also Geschwindigkeit, Syntax, Tonfall, Phonetik, die darüber Aufschluss geben, was ein Mensch fühlt.

Seit neuestem lernt die Technologie der künstlichen Intelligenz ebenfalls, Gesichter und Stimmen zu bestimmen, wobei ein Foto oder ein gesprochener Satz in der Regel ausreicht, um Informationen über Identität, Gesundheit, Emotionen und sogar die Persönlichkeit zu erhalten. Die künstliche Intelligenz kann inzwischen anhand des Klangs der Stimme erkennen, ob man an Parkinson, Depressionen oder sogar Covid-19 leidet.

Literatur

https://www.dw.com/de/die-magie-von-gesicht-und-stimme/a-62853377 (22-09-22)

Es ist noch ein langer Weg …

Am Forschungszentrum Jülich hat man ein neuronales Netzwerk mit 300 Millionen Synapsen in bislang unerreichter Geschwindigkeit simuliert, wobei es gelang, die Netzwerk-Aktivität viermal schneller als in Echtzeit zu berechnen. Für ihren Rekord nutzte man einen Prototyp des „neuronalen“ IBM-Supercomputers INC-3000.

Es handelt sich um ein Netzwerk, das von seiner Größe her etwa 1 Kubikmillimeter der Hirnrinde entspricht. Es besteht aus 80.000 Neuronen, die über 300 Millionen Synapsen miteinander verbunden sind. Ein solches Netzwerk hat noch keine Lernfunktion. Es soll vielmehr eine realitätsnahe Vernetzung abbilden und erzeugt gerade genügend Stimulus, um zu biorealistischen Aktivitätsmustern zu kommen. Das Netz beschäftigt sich praktisch selbst – man spricht hier auch von einem rekurrenten Netz, das mit den Aktivitätsmustern, die es produziert, wieder eigene Aktivitätsmuster hervorruft. Dieses Netzwerk ist sehr gut untersucht und eignet sich daher, um die Leistungsfähigkeit von Computerarchitekturen hinsichtlich der Simulation von neuronalen Netzen miteinander zu vergleichen. Allerdings umfasst dieses Netzwerk nur etwa ein Millionstel eines menschlichen Gehirns, und ist damit immer noch viel zu klein, um zu verlässlichen Aussagen über das Gehirn an sich zu kommen.

Biologische Gehirne sind vollkommen anders aufgebaut als die Computersysteme, wie sie beispielsweise im High-Performance-Computing (HPC) eingesetzt werden. Während in klassischen Supercomputern nur verhältnismäßig wenige, hochgetaktete Prozessoren unter strikter Trennung von Speicher- und Prozessoreinheiten Berechnungen durchführen, ist ein Gehirn aus einer massiven Anzahl hochgradig vernetzten Neuronen aufgebaut. Jedes Neuron für sich arbeitet zwar extrem langsam und damit energiesparend, dennoch ist unser Gehirn extrem leistungsfähig, da die Nervenzellen vollständig parallel arbeiten. Zudem ist der Grad der Vernetzung im Gehirn extrem. 80 Prozent des Hirnvolumens werden allein von Verbindungen zwischen Nervenzellen belegt. Die eigentlichen Neurone machen dagegen nur 16 bis 20 Prozent aus.

Ein weiteres grundlegendes Problem aller konventionellen Computerarchitekturen ist die strikte Trennung von Prozessor und Speicher. Biologische Nervenzellen dagegen können Informationen sowohl verarbeiten als auch speichern. In herkömmlichen Computersystemen müssen alle Informationen über eine enge Schnittstelle vom Prozessor zu einem Speichersystem transportiert werden, das ist der sogenannte Von-Neumann-Flaschenhals. Dies führt zu einer gewissen Verzögerung, Latenz genannt. Diese Latenz wird sich auch mit neuen Speichertechnologien nicht signifikant verbessern und bestimmt die Simulationsgeschwindigkeit maßgeblich, wie wir in unseren Untersuchungen nachweisen konnten. Die Kommunikation zwischen Nervenzellen ist zudem extrem energiesparend und geschieht fast ausschließlich über extrem spärliche neuronale Aktivitätsmuster. Übersetzt auf unsere Supercomputer bedeutet dies, dass man es ausschließlich mit sehr kurzen Datenpaketen zu tun hat. Die vorrangigen Computerstandards sind aber gerade für große Datenpakete optimiert. Auch bei der Kommunikation entstehen so für kurze Datenpakete große Latenzen.

Man nutze das INC-System von IBM vorrangig, weil sich damit unterschiedliche Schaltungen sehr flexibel herstellen lassen. FPGAs, Field Programmable Gate Arrays, enthalten frei programmierbare Logikbausteine mit eigenem Speicher und weiteren Hardware-Komponenten auf einem Chip. Weil der Speicher so nah an der Logik platziert ist, fallen die zuvor angesprochenen Speicher-Latenzen nicht ins Gewicht. Die Bausteine auf dem FPGA lassen sich außerdem beliebig umprogrammieren. Dies ist hilfreich, um beispielsweise verschiedene Architekturvarianten zu untersuchen. Da man die optimale Architektur und Schaltung im Vorfeld nicht immer eindeutig identifizieren kann, hilft die schnelle Rekonfigurierbarkeit, gute Lösungen herauszuarbeiten. So konnte man auch die optimale Schaltung finden, die den genannten Beschleunigungsfaktor ermöglichte. Derzeit werden in Simulationen noch sehr einfache Neuron- und Synapsenmodelle verwendet, die nur mit einer Handvoll mathematischer Gleichungen beschrieben werden können. Dieses Neuronenmodell ist aber mehr 120 Jahre alt. Es ist absehbar, dass eine realistischere Abbildung der Neuronendynamik und Lernvorgänge noch viel mehr Gleichungen benötigt, beispielsweise zur Beschreibung von Dendriten. Dabei handelt es sich um fein verzweigte Verästelungen, über die sich Nervenzellen untereinander verbinden. Heute weiß man: Diese Dendriten stellen keine passiven Leitungen dar und tragen aktiv zur Informationsverarbeitung bei. Schätzungsweise mehr als zwei Drittel der neuronalen Dynamik hängt davon ab. Diese dendritischen Strukturen finden heute noch gar keine Berücksichtigung. Zukünftig wird man also auch deutlich mehr Recheneinheiten benötigen, als heute in einem Prozessor zur Verfügung stehen, um die Vielzahl der gekoppelten Gleichungen in passabler Zeit zu lösen.

Grundsätzlich sind die Systeme umso schneller, je direkter sie ein neuronales Netzwerk auf Hardware-Ebene nachbilden. Das BrainScaleS-System aus Heidelberg besteht aus mehreren Wafern. Die Neuronen sind mitsamt ihren Verbindungen direkt auf dem Chip angelegt. Dieses System ist naturgemäß sehr schnell. Die Größe des Netzwerks, das sich auf diese Weise darstellen lässt, ist jedoch begrenzt. 300 Millionen Synapsen, wie wir sie simuliert haben, wären damit nicht machbar. Das Problem einer solchen Spezialarchitektur ist außerdem, dass man nachher unter Umständen nicht flexibel genug ist, um neue Features einzubauen.

Das britische System SpiNNaker gleicht dagegen eher einem herkömmlichen Superrechner. Es handelt sich hier um einen massiv-parallelen Computer, der über mehrere Hunderttausend ARM-Prozessoren, die eigentlich für Mobilfunkanwendungen optimiert sind, und ein besonderes Kommunikationsnetzwerk verfügt. Da hier ein zentraler Prozessor und ein davon abgetrennter Speicher vorliegen, läuft man wie bei allen herkömmlichen Rechnern automatisch in die Problematik mit der Latenz, also des verzögerten Transports von Informationen.

Grafikprozessoren (GPUs) werden derzeit vor allem für klassische neuronale Netze eingesetzt, eine realitätsgetreue Abbildung biologischer Netzwerke steht hier meist nicht im Vordergrund. Dabei geht es vor allem um Deep-Learning-Algorithmen. In GPU-basierten Systemen ist der Grad der Parallelität extrem hoch, das heißt, sie verfügen über vergleichsweise viele Recheneinheiten. Doch auch hier müssen Daten zwischen Prozessor und Speicher hin und her transportiert werden, was letztlich wieder das Problem mit der Latenz betont. Verglichen mit dem biologischen Gehirn sind GPUs außerdem immer noch extreme Energiefresser. Ein menschliches Gehirn hat eine Leistung von etwa 20 Watt, typische Serverfarmen mit GPU-basierten Rechenknoten kommen dagegen auf mehrere Mega-Watt, benötigen im Betrieb also das Hunderttausendfache an Energie.

Im Projekt „Advanced Computing Architectures (ACA): towards multi-scale natural-density Neuromorphic Computing” arbeitet man daran, Konzepte zu benennen, die man braucht, um große Netzwerke, die sehr komplex sind, berechnen zu können. Das wäre dann etwa ein Netzwerk mit 1 Milliarde Neurone, das so groß ist wie das Gehirn eines Säugetieres. In dem Projekt kooperiert man mit der RWTH Aachen, der University of Manchester und der Universität Heidelberg, die teils auch eigene neuromorphe Ansätze verfolgen. Übergeordnetes Ziel ist der Bau eines Computersystems, das es ermöglicht, Lernprozesse im Zeitraffer zu untersuchen. Das IBM INC-3000-System kam im Rahmen der Machbarkeitsstudie zum Einsatz und hat gezeigt, dass selbst bei Verwendung modernster Technologien dem erzielbaren Leistungsgewinn grundsätzlich Grenzen gesetzt sind. Neue, unkonventionelle Architekturen, Schaltungs- und Speicherkonzepte sind hier unumgänglich. Hierbei müssen Konzepte der Speicherarchitektur, der Kommunikation und der numerischen Berechnungseinheiten völlig neu elaboriert werden. Langfristiges Ziel ist die Entwicklung einer eigenen Architektur, die speziell auf diese Art von Simulationen zugeschnitten ist. Eine solche neuromorphe Beschleuniger-Architektur könnte dann idealerweise angekoppelt werden an die Jülicher Supercomputing-Infrastruktur. Man redet hier über einen großen Zeithorizont von 15 bis 20 Jahren.

Literatur

Arne Heittmann, Georgia Psychou, Guido Trensch, Charles E. Cox, Winfried W. Wilcke, Markus Diesmann and Tobias G. Noll (2022). Simulating the Cortical Microcircuit Significantly Faster Than Real Time on the IBM INC-3000 Neural Supercomputer, Front. Neurosci. , doi:10.3389/fnins.2021.728460

Kann es eine sozial kompetente künstliche Intelligenz geben?

Kinder und Jugendliche lernen Soft Skills, die sie später im Leben brauchen werden, und sie hören nicht auf zu lernen, wie sie später im Leben sozial kompetent sein können. Maschinelles Lernen ist die Grundlage, auf der fast alle künstlichen Intelligenzen beruhen, wobei künstliche neuronale Netze darauf trainiert werden können, Muster zu erkennen und sie später auf große weitere Datensätze anzuwenden. Ein sozial intelligenter Computer bzw. seine sozial-emotionale künstliche Intelligenz sollte in der Lage sein, Informationen in sozialen Situationen in Echtzeit zu erkennen und entsprechend auf menschliche Art und Weise zu reagieren. Menschlich bedeutet in diesem Zusammenhang, aus Situationen zu lernen, sich eine Meinung zu bilden und eigenständig Entscheidungen zu treffen. Dies soll z.B. eine produktive Zusammenarbeit zwischen Mensch und Maschine ermöglichen. Wissenschaftler arbeiten an der Entwicklung eines intelligenten Chatbots, d.h. einer künstlichen Intelligenz, die über einen Chat direkt mit Menschen kommunizieren kann, so dass die künstliche Intelligenz die Gefühle des Nutzers einordnen und entsprechend reagieren kann. Neben alltäglichen Aufgaben wie dem Kundenservice kann der Chatbot auch dazu beitragen, Stress und Depressionen bei den Nutzern abzubauen.

Literatur

Stangl, W. (2022, 9. August). Gibt es eine sozial kompetente künstliche Intelligenz? Stangl notiert …
https:// notiert.stangl-taller.at/zeitgeistig/gibt-es-eine-sozial-kompetente-kuenstliche-intelligenz/
https://scilogs.spektrum.de/hirn-und-weg/emotionale-intelligenz/ (22-08-09)

Künstliche Intelligenz in der Medizin

Zum Thema „Künstliche Intelligenz in der Medizin“ hat 1997 der Europarat die weltweit erste internationale Bioethikkonvention veröffentlicht, die vielen Mitgliedstaaten geholfen hat, ethische Standards in der Biomedizin zu formulieren. Auch ging es darum, die Kompatibilität dieser Normen mit denen der Europäischen Menschenrechtskonvention sicherzustellen. 2020 hat der Europarat dann einen strategischen Aktionsplan zu Menschenrechten und Technologien in der Biomedizin erstellt und will sich in den kommenden zwei Jahren intensiv mit Künstliche Intelligenz-Themen im Gesundheitswesen beschäftigen. Der britische Datenethik-Forscher Brent Mittelstadt von der Universität Oxford hat dazu einem Bericht erstellt. Darin wird vor möglichen Auswirkungen von Künstlicher Intelligenz auf Menschen- und Patientenrechte gewarnt, etwa im Hinblick auf Ungleichheiten beim Zugang zu hochwertiger Gesundheitsversorgung oder vor sozialen Vorurteilen, die in die Entwicklung von Künstlichen Intelligenz-Systemen einfließen. Mittelstadt fordert mehr Transparenz bei der Entwicklung und beim Einsatz solcher Technologien im Verhältnis zu medizinischen Fachkräften und Patienten sowie den Schutz der Vertraulichkeit von Patientendaten. Weiterhin schildert der Bericht mögliche Folgen der Künstlichen Intelligenz im Hinblick auf den Verlust von Kompetenzen bei Gesundheitsfachkräften und bei der Verlagerung von Verantwortung. Allerdings kann Künstliche Intelligenz Ärzte darin unterstützen, noch effektiver und effizienter zu arbeiten als bisher.

Literatur

Stangl, W. (2022, 16. Juni). Künstliche Intelligenz in der Medizin. Stangl notiert ….
https:// notiert.stangl-taller.at/allgemein/kuenstliche-intelligenz-in-der-medizin/

Neandertalergehirn für Roboter

Da der Paläogenetiker Svante Pääbo 2009 gemeinsam mit seinem Team das Neandertaler-Genom entschlüsselte, züchtet er nun Mini-Neandertalergehirne, die er in Roboter verpflanzen will. Von der Gehirnmasse der Neandertaler ist heute nichts mehr erhalten, allerdings gibt es im Labor des Institute of Molecular Biotechnology in Wien bereits stecknadelkopfgroße Abkömmlinge des urzeitlichen Vorbilds, die mit der Genschere CRISPR/Cas9 und natürlich dem Wissen über die alte DNA hergestellt wurden.


Anmerkung: Die Genschere Crispr/Cas9 ist eine neue Methode des Genome Editing und wird als Revolution in der Gentechnik gefeiert. Mit ihr lässt sich DNA in nahezu allen lebenden Zellen und Organismen einfach, schnell und vor allem präzise an einer bestimmten Stelle verändern. Das neue Präzisionswerkzeug ermöglicht es, DNA gezielt im Erbgut zu entfernen oder einzufügen. Crispr/Cas wird inzwischen standardmäßig in Forschung und Entwicklung eingesetzt und hat wesentlich zu deren Beschleunigung beigetragen. Vor allem bei der Heilung von Krankheiten und der Züchtung von Pflanzen, die beispielsweise der Klimakrise trotzen sollen, werden große Hoffnungen in Crispr/Cas gesetzt. Die Anwendung dieser Methode wirft jedoch auch ethische Fragen auf, die im Zusammenhang mit möglichen Anwendungen diskutiert werden.


Die Wissenschaftler setzten dann die Neandertaler-Variante des Gens NOVA1 in menschliche Stammzellen ein, wobei sie die Großhirnrinde der Neandertaler in einer winzig kleinernVersion wachsen ließen, wobei die Organoide wie Popcorn wirken, während die menschlichen Gehirne im Gegensatz eher eine Kugelform besitzen. Außerdem fanden sich im Inneren Strukturen, die sich auch bei Menschen zeigen, die mit neurologischen Defekten zu kämpfen haben. Wenn diese Organoide eines Tages perfek« sind, möchten die Forscher sie in krabbenähnliche Roboter verpflanzen, in der Hoffnung, dass die kleinen Gehirne die Maschinen steuern lernen.

Literatur

https://www.trendsderzukunft.de/forscher-zuechten-neandertaler-gehirne-um-sie-in-roboter-zu-pflanzen/ (21-11-28)

Roboter als Trainer im Sport

Der ORF Niederösterreich berichtet im Oktober 2021, dass Roboter als Trainer bei Vereinen aushilft, und zwar untersuchen die Sportunion Niederösterreich und das Austrian Institute of Technology (AIT) im Rahmen eines Forschungsprojekts den Einsatz von Robotern in Vereinstrainings. Untersucht werden soll nicht nur, inwieweit Roboter das Training in verschiedenen Sportarten unterstützen können, sondern auch, ob ihr Einsatz die Motivation der Mitglieder erhöht. Hinzu kommt, dass es Engpässe im Trainerbereich gibt. In den kommenden Wochen wird der Roboter bei verschiedenen Vereinen in Niederösterreich getestet – vom Leistungssport über den Kinder- bis hin zum Gesundheitsbereich. Erste Station ist Handball-Zweitligist St. Pölten, bei dem der Roboter unter anderem beim Krafttraining zum Einsatz, wo er die Übungen nicht nur aufzeichnet, sondern den Spielern auch zeigt, was sie besser machen können. Beim Handballtraining selbst übernimmt der Roboter Aufgaben des Übungsleiters. Die Spieler zeigen sich danach begeistert. Vor allem im Bereich des Kinder- und Jugendsports erhofft man sich viele positive Rückmeldungen.

Quelle

https://noe.orf.at/stories/3125398/