Q* - eine neue Ebene künstlicher Intelligenz?

  • Es wird gemunkelt, dass der KI-Konzern OpenAI (dem Erfinder von ChatGPT) einen Durchbruch bei einem KI-System namens "Q*" geschafft hat, der dem System rudimentäres logisches Denken ermöglichen soll. Zumindest derzeit zwar noch auf Grundschulniveau, aber das Tempo, wie sich die Technologie weiterentwickelt, ist beachtlich.


    "OpenAI ist angeblich ein Durchbruch bei der KI-Forschung gelungen: Ein neues Netz namens Q* soll sich im logischen Denken deutlich von ChatGPT abheben. Das veranlasste einige Forscher offenbar zu einem Warnbrief an den Vorstand, der wiederum eine Rolle bei der Entlassung des CEOs gespielt haben soll.

    Das vor allem für die KI-Produkte ChatGPT und Midjourney bekannte Unternehmen OpenAI hat turbulente Tage hinter sich. Letzte Woche wurde überraschend der CEO entlassen, woraufhin dieser zuerst bei Microsoft anheuerte und dann direkt wieder ins Unternehmen zurückgeholt wurde. Ein Bericht von Reuters liefert nun möglichen Kontext zu den Hintergründen des Rausschmisses: Angeblich spielte dabei ein Durchbruch bei der KI-Forschung eine Rolle."


    KI-Durchbruch als Gefahr für die Menschheit? OpenAIs Q* soll logisch denken können
    OpenAI ist angeblich ein Durchbruch bei der KI-Forschung gelungen: Ein neues Netz namens Q* soll sich im logischen Denken deutlich von ChatGPT abheben.
    www.pcgameshardware.de

  • Schon Wahnsinn. Aktuell finde ich das noch alles gut.

    Was ist daran gut, wenn unkontroliert weitergeforscht wird. Es hat ja mit der Erfindung der A-Bombe nicht aufgehört, man musste sie ja auch ausprobieren und das nicht nur zur Probe.

    Ich fürchte da hat sich die Wissenschaft vergaloppiert. Wir stecken irgendwo noch in der Steinzeit und kommen erst langsam heraus. Und das zuerst das Militär es bekommt sollte auch jedem klar sein. Und damit sind alle Tore weit aufgerissen.

  • Ich fürchte da hat sich die Wissenschaft vergaloppiert.

    Wohl eher die Wirtschaft. Die Wissenschaft schafft ja nur Wissen. Das einzuschränken ist etwas schwierig. Bisher ist über den Grad der "Intelligenz" dieser neuen "Super-KI" (also einer "denkenden" KI) ja noch gar nichts bekannt. Bisher beruht ja das alles alles noch auf rein statistischen Methoden, Massendaten, Prozessor-Power und nicht zuletzt auch Men-Power.


    Aber da leuchten gerade viele Dollars in den Augen der Konzerne und es wird versucht da gerade einen Hype zu generieren. Und da steht halt die Frage im Raum, ob so etwas nicht vielleicht doch zu wertvoll ist als dass man es einfach nur wieder nutzt um Kosten einzusparen und Konsum zu generieren.


    Es gibt ja schon erste Ansätze wie z.B. Hugging Face mit denen man Sprachmodelle der Allgemeinheit zugänglich macht. Und da gehört meiner Meinung nach KI auch hin. Wird aber wahrscheinlich auf leuchtende Dollars hinauslaufen. Da bin ich ganz klar Pessimist.


    Gefahr für die Menschheit? Sehe ich nicht. Eher sehe ich eine Gefahr für die für uns bisher gültigen Lebensmodelle bis weit hinein in den klassischen Mittelstand der ja bisher halbwegs save war. Es sind ja schon viele Branchen verschwunden weil sie von der technischen Entwicklung überholt wurden. KI sehe ich da als globalen Killer im Bereich Rationalisierung des "Virtuellen". Ob in der Masse dann auch neue Jobs entstehen wage ich zu bezweifeln.

    I feel a disturbance in the force...

  • Den größten Nutzen von Sprachmodellen wie ChatGPT sehe ich in der Anwendung auf lokaler Hardware als Wissensarchiv z.B. für Unternehmen, Forschungseinrichtungen oder Bibliotheken. Im Gegensatz zu einer in der Praxis nicht mehr sinnvoll durchsuchbaren Menge an Dokumenten, Konstruktionsunterlagen, Laborberichten, Protokollen etc. hat man nun ein Tool an der Hand, dem man einfach Fragen stellen kann: "Was haben wir in den letzten 20 Jahren an Produktideen rund um das Thema Tiernahrung gehabt? Zusammenfassender Bericht und eine Präsentation der Highlighzt als Powerpoint mit sieben Folien bitte" schwupps bekomme ich eine entsprechende Antwort. Viele Konzerne wissen ja gar nicht, was sie wissen, weil der Zugriff auf das unternehmensinterne Wissen sehr mühsam ist. Allerdings würde ich so ein System niemals als Cloud bei einem externen Dienstleister betreiben wollen. Dann sind die Daten weg oder für Dritte zugänglich. Oder beides. On-Premise LLM ist das Stichwort. Allerdings braucht man für einen halbwegs performanten GPT-Server eine, besser zwei H100-Karten von NVIDIA und ein paar Terabytes RAM. So ein Sprachmodell-Server kostet dann knapp 100.000 Euro.


    Eine Weiterentwicklung eines KI-Systems, das nicht nur Wissen bzw. Informationen zusammentragen, extrahieren und aufbereiten kann, sondern auch Schlußfolgerungen anbieten oder gar Lösungen für komplexere Fragestellungen entwickelt, wäre rein technologisch betrachtet, schon eine sehr reizvolle Sache: "Bestimme ein gefaltetes Protein, das am besten für den mRNA-impfstoff gegen COVID-3 geeignet ist."


    Spätestens jetzt sollte dringend über eine Regulierung der Anwendung und "Freisetzung" solcher KI-Systeme diskutiert werden. Die Gefahr geht nicht von solchen Systemen aus, sondern von Menschen, die sich auf solche Systeme stützen oder Entscheidungsprozesse an Algorithmen delegieren. Versicherungskonzerne und Banken machen das wohl zum Teil schon, wenn es um die Bearbeitung von versicherten Bagatell-Schäden oder der Einstufung der Kreditwürdigkeit bei Verbraucherkrediten geht. Da ist ein gewisser "Schwund" durch fehlerhafte Entscheidungen einkalkuliert und günstiger, als einen Stall voller Kreditsachbearbeiter und Schadensprüfer für viel Geld vorzuhalten.

  • wäre rein technologisch betrachtet, schon eine sehr reizvolle Sache

    Das wäre der Wahnsinn. Man stelle sich vor man hätte 1000 Einsteins und ein paar Hawkings die Zugriff auf all das bisher generierte menschliche Wissen hätten. Alle Probleme und Rätsel der Menschheit auf einen Schlag gelöst.


    Aber schade, dass wir im Wesentlichen von phantasielosen Neandertalern bestimmt werden. :winking_face:

    I feel a disturbance in the force...

  • Was bei den großen Sprachmodellen wie ChatGPT noch verschärfend hinzukommt, ist die Tatsache, dass die erste Generation noch mit menschgemachten Informationen auf ca. 3 Mrd. Webseiten und sonstigen digitalisierten Inhalten (Bücher etc.) trainiert wurde. Da nun aber immer mehr solcher Informationen mittels KI-Systemen generiert wird, verschlechtert sich schleichend die Qualität der für das Training von KI-Systemen zugänglichen Informationen. Wissenschaftler sprechen schon von der Möglichkeit einer digitalen Demenz bei KI-Systemen, je mehr man dazu übergehen muss, KI-Systeme mit dem Output von KI-Systemen zu trainieren, dessen Qualität niemand geprüft hat und die weder plausibel noch objektiv wahr oder inhaltlich korrekt sein müssen. Jede weitere Generation an verfügbaren (KI-generierten) Informationen wird so immer belangloser und wirrer und dient dem Training der nächsten Generation KI-Systeme. Das ist sowas wie ein Stille-Post-Effekt nur auf Speed und mit dem gesamten Wissen der Menschheit (bzw. dessen was wir dafür halten).

  • Das ganze erinnert mich irgendwie an ein Buch ... Das Restaurant am Ende des Universiums.


    Auf jeden Fall ist die Antwort auf Alles : 42

    :)

    sry, das musste sein.

  • Den größten Nutzen von Sprachmodellen wie ChatGPT sehe ich in der Anwendung auf lokaler Hardware als Wissensarchiv z.B. für Unternehmen, Forschungseinrichtungen oder Bibliotheken. Im Gegensatz zu einer in der Praxis nicht mehr sinnvoll durchsuchbaren Menge an Dokumenten, Konstruktionsunterlagen, Laborberichten, Protokollen etc. hat man nun ein Tool an der Hand, dem man einfach Fragen stellen kann: "Was haben wir in den letzten 20 Jahren an Produktideen rund um das Thema Tiernahrung gehabt? Zusammenfassender Bericht und eine Präsentation der Highlighzt als Powerpoint mit sieben Folien bitte" schwupps bekomme ich eine entsprechende Antwort. Viele Konzerne wissen ja gar nicht, was sie wissen, weil der Zugriff auf das unternehmensinterne Wissen sehr mühsam ist. Allerdings würde ich so ein System niemals als Cloud bei einem externen Dienstleister betreiben wollen. Dann sind die Daten weg oder für Dritte zugänglich. Oder beides. On-Premise LLM ist das Stichwort. Allerdings braucht man für einen halbwegs performanten GPT-Server eine, besser zwei H100-Karten von NVIDIA und ein paar Terabytes RAM. So ein Sprachmodell-Server kostet dann knapp 100.000 Euro.


    Eine Weiterentwicklung eines KI-Systems, das nicht nur Wissen bzw. Informationen zusammentragen, extrahieren und aufbereiten kann, sondern auch Schlußfolgerungen anbieten oder gar Lösungen für komplexere Fragestellungen entwickelt, wäre rein technologisch betrachtet, schon eine sehr reizvolle Sache: "Bestimme ein gefaltetes Protein, das am besten für den mRNA-impfstoff gegen COVID-3 geeignet ist."

    Wäre also die ultimative Prepper Datenbank