Künstliche Intelligenz

  • Liebes Forum


    Das heranschreiten neuer immer leistungsfähigen KI s und deren Roboter, macht mich in zwei Sachen etwas murmelig. Erstens das abschaffen von Arbeitsplätze, was auch leid und Unzufriedenheit mit sich führt.

    Zweitens dass sie so schlau werden und ihr Belohnungssystem austricksen. Dann haben wir Menschen ein grosses Problem!


    Warum Künstliche Intelligenz gefährlich werden kann
    Fortgeschrittene KI könnte sich in den kommenden Jahren verselbstständigen und gegen ihre Erfinder wenden, warnt eine Studie der Oxford University. Wird die…
    www.nationalgeographic.de


    Liest mal den Bericht:

  • Um Arbeitsplätze mache ich mir keine Sorgen. Sind genug Stellen offen und jeder hätte gerne 4 Tage Woche.

    Wird ohne nicht gehen. Vielleicht geht dann auch manches schneller, insbesondere in der Bürokratie. Steuerberater, Anwälte, Beamte die Anträge bearbeiten etc....

    Die Liste ist lang. Ich sehe das durchweg positiv.

  • Angst vor der Veränderung?

    Früher.....haben viele Menschen körperlich anstrengende oder stupide Arbeiten erledigt.

    Landarbeiter auf dem Feld, Pferdefuhrwerke, Bergbaukumpels, Straßenbau mit Schaufel etc., Fließbandarbeit, Waldarbeiter mit Handsäge und Axt. Sie alle sind, bis auf wenige spezielle Ausnahmen, durch Maschinen und Roboter ersetzt worden und die Menschen haben andere Arbeit gefunden.

    Ich sehe erstmal nichts schlechtes an der Verbesserung von Arbeitsbedingungen.


    Tsrohinas

  • Bei KI muss man zwischen den jetzt verfügbaren LLMs unterscheiden (large language model - Sprachmodelle) und der noch nicht verfügbaren AGI (artificial general intelligence).


    Die LLMs (dazu zählen Anwendungen wie ChatGPT, Midjourney, LLAMA usw.) sind nichts als "schnelle Mustervergleicher". Das sind trainierte Algorithmen, die in Datenmengen Ähnlichkeiten finden und Daten dann entsprechend vordefinierter Ergebnisklassen ordnen können. Z.B. kann so ein Sprachmodell auf das Aussehen einer Sonnenblume trainiert werden und dann lässt man es auf eine Bilddatenbank los und es findet alles, was mit einer gewissen Wahrscheinlichkeit wie eine Sonnenblume aussieht. Anstelle einer Bildersuche und -klassifizierung kann man das auch auf Sprache oder geschriebene Sätze anwenden. Man trainiert ein LLM darauf, wie altgriechische Gedichte aufgebaut und strukturiert sind und kann sich dann Gedichte erzeugen lassen (generatives KI-Modell), die altgriechischen Gedichten ähneln. Es kann dabei allerdings auch völliger Quark bei rauskommen. Das erlebt man z.B. bei der Erzeugung von Bildern mittels KI-Systemen. Da haben Personen plötzlich 6 Finger an der Hand oder andere "Fehlbildungen". Denn das KI-System "weiß" ja nicht, was es tut, sondern bastelt einfach Ergebnisse auf der Basis der antrainierten Musterklassen.


    Interessant sind sog. selbstlernende Systeme, bei denen man nicht streng ein fixes Set an Musterklassen vorgibt, auf die das System trainiert wird, sondern es dem System ermöglicht, eigene Klassen anzulegen und durch erfolgreiches Erkennen von Korrelationen die Klassen dann zu festigen (oder auch wieder zu verwerfen). Dann hat man ein System, das sich selbst verändern und entwickeln kann. Das führt manchmal zu interessanten Ergebnissen, z.B. in der Lösung mathematischer Problemstellungen oder bei der Entwicklung mechanischer Strukturen mittels generativer KI (wie hier ein paar bionische Befestigungselemente, die die NASA von KI-Systemen hat "entwerfen" lassen - die tatsächlich leichter und zugleich stabiler waren, als die bisher klassisch konstruierten Elemente).


    Eine Schwierigkeit besteht im sinnvollen Training von KI-Modellen. Die großen Sprachmodelle wie ChatGPT hat man z.B. mit den Inhalten von Milliarden Internetseiten und Büchern usw. trainiert - alles Daten, die von Menschen erdacht und erzeugt worden sind. Jetzt werden KI-Systeme immer mehr eingesetzt, um Texte, Bilder und andere Daten für Werbung, Information und Unterhaltung bequem zu erzeugen. Das bedeutet, dass die öffeentlich zugänglichen Daten immer mehr auf KI-generierten Informationen basieren und nicht mehr auf von Menschen erzeugte Informationen. Die nächsten Generationen an KI-Modellen greifen dann zwangsläufig auf diese Daten zurück und es besteht die Gefahr, dass KI-Systeme sich mit Daten trainieren, die selber von KI-Systemen stammen und die möglicherweise nicht besonders sinnig sind, sondern auch viel belanglosen Quatsch enthalten (Informationen, die sehr echt aussehen, aber eben keinen echten Informationsgehalt besitzen).

    Manche Forscher sprechen schon von der Möglichkeit einer "KI-Demenz", wenn die Qualität der Trainingsdaten immer schlechter wird. Das ist im Grunde dann wie beider "stillen Post", wenn einer dem nächsten etwas ins Ohr flüstert, dieser irgendwas versteht und es wieder seinem Nächsten in der Reihe ins Ohr flüstert: was am Ende rauskommt, hat nicht mehr viel mit der ursprünglichen Information zu tun.


    D.h. es ist gut, immer einen kritischen Blick auf KI-generierte Information zu haben und sie zu hinterfragen. Weil Menschen aber Bequemlichkeit über alles stellen, werden die wenigsten die Informationen hinterfragen, die sie täglich konsumieren und darin liegt die derzeit größte Gefahr: Desinformation. Denn man kann mittels KI kinderleicht tendziöse Informationen erzeugen, um politische Meinungen zu beeinflussen oder Menschen aufzuwiegeln.

    Das Problem ist, dass Menschen offensichtlich bereit sind, sich einem an sich dummen technischen System bereitwillig zu unterwerfen, wenn es ihnen Unterhaltung und Bequemlichkeit verspricht. Es braucht also gar keine echte KI.


    Diese unheimliche "echte" KI, also die AGI, ist noch ein gutes Stück weit weg und es ist auch unklar, ob sie einfach so erschaffen werden kann bzw. entsteht, wenn man einfach nur genügend Rechenpower zusammenstöpselt. Das ist ein relativ naiver Denkansatz. Bislang sind die KI-Systeme nur extrem schnelle Mustervergleicher, meilenweit von jeglichem Bewusstsein oder einer Selbstreflektion entfernt.


    Man wird sich dem Thema dann nähern, wenn man besser verstanden hat, wie biologische Informationsverarbeitung funktioniert: DNA, chemische Vorgänge auf Molekülebene in Kombination mit elektrischen Signalen usw. Das biologische Gehirn ist halt keine 1:1-Version eines Computers mit Rechenchips, Speichern und Datenleitungen, sondern ein bisschen mehr und ein bisschen komplexer.

  • KI-generierte Beiträge in Foren können sich als schädlich für die Datenbasis von KI-Systemen erweisen, da sie potenziell falsche, irreführende oder unzureichend fundierte Informationen enthalten können. Die Qualität von KI-Modelle hängt stark von den Trainingsdaten ab, die sie verwenden. Wenn KI-Systeme auf Grundlage von generierten Beiträgen trainiert werden, besteht die Gefahr, dass sie fehlerhafte Muster, Vorurteile oder ungenaue Informationen aufnehmen.

    Ein weiteres Problem ist die mangelnde Authentizität von KI-generierten Inhalten. Echte Forenbeiträge spiegeln die Vielfalt der Meinungen, Erfahrungen und Hintergründe der Menschen wider. KI-Systeme könnten Schwierigkeiten haben, die subtilen Nuancen menschlicher Kommunikation zu erfassen und authentische, relevante Informationen zu extrahieren. Dies könnte zu einer Verzerrung der Trainingsdaten führen und die Fähigkeit der KI beeinträchtigen, realistische und nuancierte Beiträge zu generieren.

    Zudem könnten KI-generierte Posts in Foren auch dazu führen, dass Menschen falsche Informationen übernehmen oder Vertrauen in die Glaubwürdigkeit von Online-Diskussionen verlieren. Dies könnte die Qualität und den Wert von Foren als Informationsquelle beeinträchtigen.

    Es ist wichtig, die Verwendung von KI in der Generierung von Forenbeiträgen mit Vorsicht zu betrachten und sicherzustellen, dass die Trainingsdaten von hoher Qualität und Vielfalt sind, um eine präzise und vertrauenswürdige KI-Plattform zu

  • Momentan mcht mir eine "selbst denkende" KI noch kein Kopfweh, man kann es ja an der Qualität von Z.B. der Übersetzungen sehen die Google liefert...


    Bisher ist es ja nichtmal gelungen fehlerfrei so einfache Sprachen wie Englisch / Deutsch / Spanisch untereinander zu übersetzen.


    Gibt man dann mal einen chinesischen Text ein - kommen dann teilweise echte Lacher raus, wie sich an vielen Angeboten bei Ebay, Amazon, Shein,AliExpress und Co deutlich zeigt....

    Aus dem Norden von DE bzw. dem Süden von ES gesendet

  • Bisher ist es ja nichtmal gelungen fehlerfrei so einfache Sprachen wie Englisch / Deutsch / Spanisch untereinander zu übersetzen.

    Also die Übersetzungen von ChatGPT finde ich schon erstaunlich gut.

  • Eine sehr interessante Sache hat NVIDIA vorgestellt, den KI-Chatbot "Chat with RTX". Ein lokal laufendes KI-System, basierend auf dem LLAMA-Modell in der 13B-Variante (13 billion parameters). Was man dazu braucht - clevere Marketing-Idee von NVIDIA - eine RTX-Grafikkarte aus der 30xx oder 40xx Serie mit mindestens 8GB Speicher. Und natürlich etwas freien Speicherplatz auf der Festplatte: bis zu 150GB. Chat with RTX wird lokal installiert und läuft auch lokal. Es ist aus dem Stand heraus nicht so "schlau" wie ChatGPT, weil man dem NVIDIA-Chatbot das Wissen erst noch beibringen muss.

    Was er kann, ist lokale Datenbestände (PDF, Text, docx, XML - aber auch Videos) durchforsten und man kann sich dann z.B. Zusammenfassungen aus dem eigenen Datenbestand erstellen lassen oder Fragen zu diesem Wissen stellen. Sehr praktisch, wenn man z.B. firmeninterne oder datenschutzrelevante Daten nicht in eine Cloud z.B. zu OpenAI hochladen will bzw. Cloud-KI-Dienstleistern keinen freien Zugang zu seinen Daten gewähren will.


    Chat with RTX: Nvidias lokaler Chatbot kann PDFs und Videos durchsuchen - Golem.de
    Statt auf Clouddatenbanken verlässt sich Nvidias KI-Chatbot auf eigene Datensammlungen. Die Analyse und Berechnungen laufen lokal auf der Grafikkarte.
    www.golem.de

  • Das ist bemerkenswert. Ich denke von nun an muss man dreimal checken ob ein Video echt oder KI-generiert ist.


    Externer Inhalt twitter.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

  • Und ChatGPT bekommt eine Memory-Funktion und erkennt Nutzer und ihre Vorlieben wieder. Nicht schön. Dagegen sind personalisierte Cookies im Browser der reinste Kindergarten. Künftig "weiß" ChatGPT, wer du bist, was deine Vorlieben sind, wer deine Haustiere und Familienmitglieder sind usw. Indem sich das System die bisherigen Fragen/Aufgabenstellungen des Nutzers merkt und Schlüsse daraus zieht ("Hat eine 5jährige Tocher, die Spongebob mag.").


    Das gibt eine neue Dimension an "Benutzererfahrung" und Bequemlichkeit: Google weiß, was du suchen willst und präsentiert es dir schon, bevor du überhaupt gesagt hast, was du wolltest. Und die Leute werden es lieben und nutzen. "Deine Tochter hat übermorgen Geburtstag, sie hat sich letztes Mal sehr über das Stofftier gefreut, ich habe dir deshalb ein ähnliches Stofftier in den Amazon-Warenkorb gelegt, wenn du möchtest, bestelle ich es dir."


    Wenn man das weiterspinnt, bekommt man eine ungefähre Ahnung, welche disruptive Änderung diese Systeme im Alltag der meisten Menschen bewirken kann. ChatGPT könnte gesundheitliche Aspekte des Nutzers mit den Daten von Ärzten verknüpfen und - vorbeugend - Konsultationen anbahnen. Das Ganze natürlich auch unter kommerziellen Aspekten: ein Sponsor aus dem Pharmabereich, der an Betreiber einer KI-Plattform zahlt, könnte in den Empfehlungen bevorzugt werden. Oder in der Verfolgung von Straftätern könnte das System zur Suche nach Personen genutzt werden: auch Kriminelle nutzen Handys und das Netz, die KI findet sie. Oder etwas dystopischer: ein Staat braucht Rekruten: ChatGPT weiß wo die passenden Leute zu finden sind.

    Genauso - und das wird die vermutlich häufigste Nutzung sein - könnte man dem System Informationen entlocken, wo Nutzer zu finden sind, bei denen sich was holen lässt und sei es nur, dass man ihre Cloudspeicher und App-Konten kapert, verschlüsselt und gegen Lösegeld wieder freigibt.

    Durch Ausnutzen von Sicherheitslücken in Systemen wie ChatGPT kann man jetzt schon an Infos gelangen, die persönlich und nicht öffentlich sind. Wenn ChatGPT mein Kaufverhalten kennt, kann ein Hacker vielleicht sich eine Liste mit Leuten im Umkreis um seinen Standort erstellen lassen, die in den letzten 24h eine teure Uhr gekauft haben oder gerade am Geldautomaten waren. Das wird noch lustig.


    ChatGPTs Memory-Funktion: Jetzt wird OpenAI richtig dreist
    ChatGPT soll sich zukünftig teils sensible Nutzerdaten automatisch merken. Das ist eine Datenschutzkatastrophe, meint Philipp Steevens.
    www.heise.de

  • Das ist bemerkenswert. Ich denke von nun an muss man dreimal checken ob ein Video echt oder KI-generiert ist.


    Externer Inhalt twitter.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Ich prognostiziere, dass in Hollywood demnächst ganz viele Leute arbeitslos werden.
    "Sora, erstelle einen Science-Fiction-Film zum Thema xyz im Format 16:9 mit einer Länge von ungefähr 2h"

  • Eine sehr interessante Sache hat NVIDIA vorgestellt, den KI-Chatbot "Chat with RTX". Ein lokal laufendes KI-System, basierend auf dem LLAMA-Modell in der 13B-Variante (13 billion parameters). Was man dazu braucht - clevere Marketing-Idee von NVIDIA - eine RTX-Grafikkarte aus der 30xx oder 40xx Serie mit mindestens 8GB Speicher. Und natürlich etwas freien Speicherplatz auf der Festplatte: bis zu 150GB. Chat with RTX wird lokal installiert und läuft auch lokal. Es ist aus dem Stand heraus nicht so "schlau" wie ChatGPT, weil man dem NVIDIA-Chatbot das Wissen erst noch beibringen muss.

    Was er kann, ist lokale Datenbestände (PDF, Text, docx, XML - aber auch Videos) durchforsten und man kann sich dann z.B. Zusammenfassungen aus dem eigenen Datenbestand erstellen lassen oder Fragen zu diesem Wissen stellen. Sehr praktisch, wenn man z.B. firmeninterne oder datenschutzrelevante Daten nicht in eine Cloud z.B. zu OpenAI hochladen will bzw. Cloud-KI-Dienstleistern keinen freien Zugang zu seinen Daten gewähren will.


    https://www.golem.de/news/chat…chsuchen-2402-182170.html

    Na das wäre doch eine interessante Funktion fürs Forum hier :grinning_squinting_face:

  • Ich prognostiziere, dass in Hollywood demnächst ganz viele Leute arbeitslos werden.

    Dann wird die Jodorowsky- Version von Dune doch noch gedreht? :)

    Was mir an Fachwissen und Intelligenz fehlt mach ich mit (hier könnte ihr Produkt stehen) wieder weg.

    lutra incognita aus DE B/BB

  • Ich prognostiziere, dass in Hollywood demnächst ganz viele Leute arbeitslos werden.
    "Sora, erstelle einen Science-Fiction-Film zum Thema xyz im Format 16:9 mit einer Länge von ungefähr 2h"

    Hat aber irgendwie was. Film-erstellen-on-demand.


    Oder alternative enden für bestehende Filme erstellen.


    Oder alternative Besetzungen für Filme testen.


    Oder oder oder


    Die Chancen sind grenzenlos, die Risiken aber auch.

  • Ich spreche jetzt nur für mich, aber das klingt doch toll. Sind wir mal ehrlich zu uns selbst, den Kampf um unsere Daten haben wir bereits verloren. Für mich, jemanden aus dem ADS/Autismus Spektrum wären solche Hilfen gold wert.

    Zumal es ja jeder Person selbst überlassen bleibt, mit was für Daten man die KI füttert.


    Ich handhabe es so, dass gesponserte Artikel/Websites generell gemieden werden. Einfach aus Trotz.

  • Ich denke das die Pornoindustrie das noch vor Hollywood nutzen wird. In zehn Jahren kann das dann jeder Heimserver und ....

    Was mir an Fachwissen und Intelligenz fehlt mach ich mit (hier könnte ihr Produkt stehen) wieder weg.

    lutra incognita aus DE B/BB