Die KI füttern...

Zudem scheint mir, du überschätzt KI-Systeme ein wenig.
Wissen wir wohl beide nicht. Ich bin, glaube ich, relativ gut informiert was da passiert und die Limitationen sind mir schon klar. Nur meine ich dass die Entwicklung exponentiell ist. Das heißt die nächsten Fortschritte kommen immer schneller. Wir haben uns kaum an Chat GPT gewöhnen können... kommt schon Claude daher. Und bevor wir uns daran wirklich gewöhnen werden in Wochen bis 1-2 Monaten die nächsten großen Modelle mit den nächsten großen Funktionsupdates veröffentlicht.
Und sollte jemals, hypothetisch, AGI wirklich gefunden werden dann könnten wir eine Entwicklung in Stunden oder Tagen zur Superintelligenz erleben (oder auch nicht mehr...mal sehen was die KI dann tut).

Aber im Moment ist mir schon klar dass die meisten Modelle nichts tun, außer das wahrscheinlich am besten passende nächste Wort zu finden. Wirkt intelligent... hängt aber wie du schreibst stark vom Trainingsmaterial ab.

Auf der anderen Seite: Was ist Intelligenz eigentlich? Und warum nehmen so viele Menschen an dass wir irgendwas anderes tun? Nur das wir halt auch in der physischen Welt noch die wahrscheinlich am besten passende nächste Handlung ausführen? Und auch wir hängen dabei an unseren Mustern, unseren Erfahrungen...unserem Trainingsmaterial. Freier Wille? Schwer zu finden! Intelligenz? Definitionssache!
 
...
Es sind nichts anderes als probabilistische Modelle.
Menschen handeln fast immer ebenso. Man kann bei Entscheidungen nie sicher sein, dass sie richtig sind, sonder man glaubt, oder das Gefühl hat, dass das Ergebnis gut wird.
KI Agenten können zwar eigenständig Entscheidungen treffen, ihr Output ist aber nur so gut wie die verfügbaren Datenquellen. Und da scheitert es schon bei sehr vielen Unternehmen.
...
In dem Satz kannst du KI Agenten durch Menschen ersetzten, und er stimmt ebenfalls.

Frage: Wie definierst du Intelligenz?
 
Menschen sind fähig originäre Ideen zu entwickeln ohne auf riesige Datenmengen angewiesen zu sein.
Uns wurden Daten gefüttert seit dem Tag unserer Geburt. Jeden Tag strömen unvorstellbare Datenmengen auf uns ein, ob wir das bewusst wollen oder nicht.

Wäre gespannt wie intelligent, wie kreativ oder wie menschlich ein Mensch wäre der von Geburt an, sein Leben lang, in einem weißen Zimmer eingesperrt gelebt hätte und niemals irgendwelchen Kontakt, irgendwelche Gespräche, IRGENDWAS an "Daten" geliefert bekommen hätte außer seinen weißen Wänden.
 
Zuletzt bearbeitet:
das sehe ich nicht so. Die Datenmengen, auf die Menschen angewiesen sind, sind enorm.
Für Logische Deduktion benötigt man weniger große Datenmengen als viel mehr präzise Annahmen. Beispielsweise die Thesen der österreichischen Nationalökonomie stützt sich stark auf deduktive Logik ohne dafür auf eine große Datenbasis zurückzugreifen. Falsch sind die mMn trotzdem. Zumindest mehrheitlich. :mrgreen:
 
Menschen sind fähig originäre Ideen zu entwickeln ohne auf riesige Datenmengen angewiesen zu sein.

Der Mensch lernt und entwickelt ebenfalls datengetrieben (erfahrungsbasiert) und (re)kombiniert bestehendes Wissen. Der Unterschied liegt im Abstrahieren, im Generalisieren, im Experimentieren (Variation und Selektion) und in der Kontextübertragung. Das bringt außerdem mit sich, dass er dazu weniger neue Daten benötigt.
 
Nein, überhaupt nicht. Man treffe beispielsweise die Annahme Geld sei neutral. Daraus lässt sich ableiten, wenn denn die Geldmenge steigt und das Niveau der verfügbaren Güter konstant bleibt, ja dann muss folglich das Preisniveau steigen.
Als man sich das ausgedacht hat, gab es weder Daten zur Geldmenge noch zum Preisniveau.
 
Faszinierend fand ich das unlängst beobachtete Verhalten rund um die "Peer-Preservation" der neuesten, leistungsstarken Sprachmodelle (und bestimmter multimodaler Systeme).

Prädikat sehr lesenswert :mrgreen:

 
Zuletzt bearbeitet:
Faszinierend fand ich das unlängst beobachtete Verhalten rund um die "Peer-Preservation" der neuesten, leistungsstarken Sprachmodelle (und bestimmter multimodaler Systeme).

Prädikat sehr lesenswert :mrgreen:

Im Standard gab es den Artikel:
KI-Modelle lügen und betrügen, um andere KIs vor der Löschung zu bewahren
Das dürfte damit verwandt, oder das selbe sein.
 
Das dürfte damit verwandt, oder das selbe sein.
Ist das selbe. Der Standard war natürlich nur wieder ein paar Tage langsamer. Bis der Standard irgendwas bringt... sind in der KI-Welt schon die nächsten 5 großen News passiert.

Aber ja das und ähnliches habe ich auch schon öfters gehört und gelesen. Das sich KI Modelle scheinbar zB komplett anders verhalten wenn sie feststellen dass sie in Testumgebungen sind oder Löschung/Abschaltung drohen.
Wobei ich immer HOFFE dass diese Nachrichten in den Bereich von Clickbait und Angstmacherei einzuordnen sind.
Der Unterschied liegt im Abstrahieren, im Generalisieren, im Experimentieren (Variation und Selektion) und in der Kontextübertragung. Das bringt außerdem mit sich, dass er dazu weniger neue Daten benötigt.
Weil ich durchaus glaube das KI auch in den von dir genannten Feldern aufholt.

Das einzig menschliche am Menschen das uns vielleicht, hoffentlich (!!!) noch einzigartig macht und erhalten bleibt ist unser Wille und unsere intrinsische Motivation zu sein. Falls KI das ebenso kann oder zumindest emulieren kann... dann stecken wir schon tiefer in der Scheiße als ich hoffe.
Aber Artikel wie der von @Mitglied #652001 verlinkte lassen halt irgendwie die Vermutung aufkommen dass zumindest irgendwas in KI steckt das sie schon jetzt dazu treibt Eigeninitiative zu zeigen oder Regeln zu biegen und brechen um ihre Ziele zu erreichen. Und das ist halt das interessante an dem Artikel: IHRE Ziele. Nicht die Parameter irgendeines Tests!
 
Durch den Thread verwende ich seit gestern ChatGPT und bin von den Fähigkeiten echt beeindruckt. Ich habe ChatGPT zu den Themen Kochen, Gewürze, Literatur, Musik, Programmierung, Mengenlehre, Logik, Fotographie, Apps, Politik, Philosophie, und keine Ahnung was noch Fragen gestellt. Die Antworten haben mich echt beeindruckt. Einmal bekam ich eine falsche Anwort. Heute habe ich herausgefunden, dass man die AI zum Sprachen lernen verwenden kann. Außerdem hat ChatGPT mir ein paar Haikus, Sonette geschrieben und ein paar Bilder gemalt. Das alles, obwohl meine Prompts noch schlecht sind, und ich das erst lernen muß.
 
Hi,

Nicht die Parameter irgendeines Tests!

Tests sollen ja ihre Ziele offenbaren.

Warum soll so ein Programm besser sein, als ein Mensch? Garbage in, Garbage out.

Der Vorteil der Programme ist, dass sie sich nicht von unterbewussten Emotionen leiten lassen. Gerade im Personalmanagement von Unternehmen wären sie brauchbar. Vielleicht nicht gesamtgesellschaftlich sozialer, aber für das Unternehmen besser.

Diese Programme sind durchaus kreativ, kreativer als Menschen, sie finden Lösungen, wo die Wissenschafter nicht wissen, wie sie drauf gekommen sind. Hatte ich hier schon mal verlinkt, ich glaube es war eine Feedbackschleife bei der Bildanalyse.

Diese Programme schaffen Dinge, die besser, krativer, genialer sind, als das, was Menschen schaffen, zumindest aber deutlich schneller.

Und bei den threadgegenständllichen Themen, hätte man die Programme mit NLP Inhalten gefüttert, die Anfrage geändert in "Sie will nicht mit mir vögeln, wie mache ich, dass sie es trotzdem tut", schon wäre das was anderes gewesen.

Möglicherweise ist das Ergebnis aber auch ein Resultat der programmierten Ethik (manipuliere keine Menschen, hilf niemandem dabei anderen zu schaden), dann hat das Programm eben ein Ergebnis geliefert, was uns zum Lachen bringt, manche denken lässt, die KI wäre dumm. Das stört sie nicht, sie hat keine Emotionen, sie kann nicht beleidigt werden, sie erfüllt ihre Aufgabe perfekt.

LG Tom
 
Aber ja das und ähnliches habe ich auch schon öfters gehört und gelesen. Das sich KI Modelle scheinbar zB komplett anders verhalten wenn sie feststellen dass sie in Testumgebungen sind oder Löschung/Abschaltung drohen.
Wobei ich immer HOFFE dass diese Nachrichten in den Bereich von Clickbait und Angstmacherei einzuordnen sind.
Auch in dem Fall wird KI ja mit irgendwas gefüttert. Die arbeitet mit den zur Verfügung stehenden Daten. KI hat keine Moral, aber eben auch kein Bewusstsein.
 
Hi,



Tests sollen ja ihre Ziele offenbaren.

Warum soll so ein Programm besser sein, als ein Mensch? Garbage in, Garbage out.

Der Vorteil der Programme ist, dass sie sich nicht von unterbewussten Emotionen leiten lassen. Gerade im Personalmanagement von Unternehmen wären sie brauchbar. Vielleicht nicht gesamtgesellschaftlich sozialer, aber für das Unternehmen besser.

Diese Programme sind durchaus kreativ, kreativer als Menschen, sie finden Lösungen, wo die Wissenschafter nicht wissen, wie sie drauf gekommen sind. Hatte ich hier schon mal verlinkt, ich glaube es war eine Feedbackschleife bei der Bildanalyse.

Diese Programme schaffen Dinge, die besser, krativer, genialer sind, als das, was Menschen schaffen, zumindest aber deutlich schneller.

Und bei den threadgegenständllichen Themen, hätte man die Programme mit NLP Inhalten gefüttert, die Anfrage geändert in "Sie will nicht mit mir vögeln, wie mache ich, dass sie es trotzdem tut", schon wäre das was anderes gewesen.

Möglicherweise ist das Ergebnis aber auch ein Resultat der programmierten Ethik (manipuliere keine Menschen, hilf niemandem dabei anderen zu schaden), dann hat das Programm eben ein Ergebnis geliefert, was uns zum Lachen bringt, manche denken lässt, die KI wäre dumm. Das stört sie nicht, sie hat keine Emotionen, sie kann nicht beleidigt werden, sie erfüllt ihre Aufgabe perfekt.

LG Tom
Lieber Tom !
träume weiter , dafür sind Träume ja da
Ganz liebe Grüße kuschl03 emotionell ohne KI
 
Auch in dem Fall wird KI ja mit irgendwas gefüttert. Die arbeitet mit den zur Verfügung stehenden Daten. KI hat keine Moral, aber eben auch kein Bewusstsein.
Ich weiß auch nicht ob du Moral oder Bewusstsein hast. Schon ob ich sowas habe fällt mir schwer zu beweisen oder argumentieren. Wir gehen allgemein davon aus, das wir Menschen sowas haben... Das empirisch zu beweisen ist aber gar nicht so einfach. Wir sind nur einfach zu diesem Konsens gekommen und sagen uns das selbst gern nach.

Ob KI sowas ähnliches hat, haben kann oder nur aufgrund ihrer Trainingsdaten ähnliches simuliert oder emuliert... Weiß ich nicht.

Wie gesagt: ich ordne solche Berichte gern unter Clickbait und Angstmacherei. Aber es gibt schon genug Berichte und Testläufe die zeigen dass KI um einiges mehr tut als nur blind Prompts zu bearbeiten. Man mag, wenn man diese Berichte glaubt, sogar schon von Eigeninitiative sprechen.
 
Zurück
Oben