What a time to be alive
Der deutsche Europaabgeordnete Daniel Freund (Grüne) und der ungarische Regierungssprecher Zsoltan Kovacs haben einander eine kuriose Redeschlacht mit Hilfe des Chatbots ChatGPT geliefert
What a time to be alive
Der deutsche Europaabgeordnete Daniel Freund (Grüne) und der ungarische Regierungssprecher Zsoltan Kovacs haben einander eine kuriose Redeschlacht mit Hilfe des Chatbots ChatGPT geliefert
Naja... ist ja eh nur heiße Luft. Dann kann mans auch gleich automatisieren.
Europol warnt vor Missbrauch von ChatGPT
Die europäische Polizeibehörde Europol hat vor dem Missbrauch von Chatbots durch Kriminelle gewarnt. Die Technik könne auch für Betrug, Falschinformation und Cybercrime eingesetzt werden, warnte die Behörde in einem heute in Den Haag veröffentlichten Bericht. Europol-Experten hatten den Chatbot ChatGPT auf Möglichkeiten des Missbrauchs untersucht.
Die Fähigkeit von ChatGPT, sehr realistische Texte zu schaffen, mache das Programm zu einem nützlichen Instrument für Kriminelle, schrieb die Behörde. Der Chatbot sei in der Lage, den Sprachstil von bestimmten Personen oder Gruppen zu kopieren. Verbrecher könnten das missbrauchen, um Opfer zu täuschen und ihr Vertrauen zu gewinnen.
Hat sich schon mal jemand die kleine Schwester von ChatGPT, LLAMA auf einer lokalen Hardware installiert?
Zitat:
"LLaMA ist ein mit GPT vergleichbares Sprachmodell, nur eben deutlich offener. Anders als OpenAI sagt Meta zum Beispiel ganz genau, mit welchen Daten sie das Modell trainiert haben. Den größten Teil, nämlich 67%, machen fünf englische CommonCrawl-Dumps aus, die jeweils den Inhalt von, Achtung, drei Milliarden Websites beinhalten. Also da hätte ein Mensch wahrscheinlich so ein, zwei Stunden dran zu lesen.
4,5 Prozent der Lama-Trainingsdaten sind Code von GitHub, weitere 4,5 Prozent Wikipedia-Dumps in unterschiedlichen Sprachen, 4,5 Prozent Bücher von Project Gutenberg und Book3 und noch ein paar andere Sachen. Insgesamt 4,7 Terabyte reiner Text." (Quelle: ChatGPT-Klon läuft lokal auf jedem Rechner | Alpaca/LLaMA ausprobiert)
Ich liebe ja lokale "non-cloud"-Lösungen. LLAMA läuft auf recht schlanken Plattformen, selbst die dickste Variante "65B" mit 65 Milliarden Parametern belegt "nur" 41GB RAM, die mittlere Version mit 13 Mrd. Parametern begnügt sich sogar mit 4 GB RAM. Die Alpaca-Implementation des Sprachmodels läuft auf 32GB RAM. Besondere Grafikkarten- oder GPU-Power braucht man nicht, die Ausführung ist auf CPUs zugeschnitten.
Das Ding ist nicht so allwissend trainiert und schon gar nicht so schnell wie ChatGPT (die Antwort auf ein paar Fragen kann schon mal ne dreiviertel Stunde dauern). Dafür läuft das Ding lokal unter deiner Kontrolle.
Ich denke, wir werden in den nächsten Jahren etliche Anwendungen solcher "Schlaumeier"-Geräte sehen. Z.B. als Ratgeber für medizinische Diagnosen oder als Reparaturanleitung für z.B. Autoreparaturen (man liest den Fehlerspeicher des Autos aus, macht ein paar Fotos von den beschädigten Teilen und lässt sich eine Reparaturempfehlung generieren mitsamt einer Teile-Bestell-Liste, den nötigen Werkzeugen und einer Schritt-für-Schritt-Anleitung). Ob das immer zielführend und gut ist, wird sich zeigen, aber solche Anwendungen werden kommen.
Europol warnt vor Missbrauch von ChatGPT
Naja, ist doch nun in der Menschheitsgeschichte nix neues oder
Tja, warum sollte es also jetzt mit diesem neuen Tool anders sein
Auch die Forensoftware scheint bald über künstliche Intelligenz zu verfügen.
Zitatwir freuen uns, dich zu unserem exklusiven Beta-Test zum Thema "Künstliche Intelligenz in der WoltLab Suite" einladen zu dürfen! In diesem Test erhältst du die Gelegenheit, innerhalb unseres Support-Forums mit unserer innovativen, GPT-basierten KI "Marilyn" zu kommunizieren. Du bist damit einer der ersten, die unsere brandneue OpenAI/GPT-Erweiterung für das WoltLab Suite Forum ausprobieren können.