AI generierte Inhalte

Ein anderer Punkt wo KI schon nicht zu ersetzen ist' ist das Militär. Die Ukraine setzt die Technologie sehr geschickt ein zb in der Feindaufklärung und um Angriffe zb Mörser Salven zu koordinieren etc.
Das gibt es natürlich auch. KI kann eine große Hilfe sein. Erst vor kurzem habe ich bei uns in der lokalen Zeitung einen Bericht gelesen, in dem KI in einer medizinischen Einrichtung genutzt wurde, um für die zahlreichen Bewohner die Mahlzeiten genau zu erfassen und zu verarbeiten. Aus dem Bericht ging hervor, dass die Mitarbeiter sehr zufrieden damit sind, da Patienten oft individuelle Wünsche haben. Zuvor sei es nämlich öfter zu Problemen gekommen.

Bei KI verhält es sich ähnlich wie mit anderen Dingen: Sie kann genauso missbraucht werden.
 
Ein Problem ist, dass kein Mensch mehr KI Algorithmen versteht und es somit immer schwieriger wird, Verhalten korrekt vorherzusagen. Dass man jetzt zur Untersuchung ähnliche (indirekte) Verfahren vorschlägt wie bei der fMRT und im Gehirn, nämlich schauen, welche Parameter (analog zu Gehirnarealen) je nach Input (analog zu Reizen) aktiv werden, ist schon ironisch.

Wie sagte einer in den Kommentaren sinngemäß: Wir verstehen immer noch nicht wie unser Gehirn funktioniert, fangen jetzt an, dieses künstlich nachzubauen, und verstehen das nun auch nicht mehr.
 
Zuletzt bearbeitet:
Bei KI verhält es sich ähnlich wie mit anderen Dingen: Sie kann genauso missbraucht werden.

Im Gegensatz zu Drogen, Medikamenten, Alkohol, Nikotin oder Schusswaffen sind AI-Algorithmen komplett unreguliert. Die Tools sind frei und in großen Teilen kostenlos verfügbar, komplizierte Anleitungen sind aufgrund von sehr nutzerfreundlichen Benutzeroberflächen praktisch obsolet und von allen technischen Verständnishürden befreit.

AI kann nicht genauso wie andere Dinge missbraucht werden, sondern es ist VIEL einfacher und leichter.
 
Im Gegensatz zu Drogen, Medikamenten, Alkohol, Nikotin oder Schusswaffen sind AI-Algorithmen komplett unreguliert. Die Tools sind frei und in großen Teilen kostenlos verfügbar, komplizierte Anleitungen sind aufgrund von sehr nutzerfreundlichen Benutzeroberflächen praktisch obsolet und von allen technischen Verständnishürden befreit.

AI kann nicht genauso wie andere Dinge missbraucht werden, sondern es ist VIEL einfacher und leichter.
Zumindest in der Klinik wird diese Problematik aber immerhin erkannt und diskutiert, das hat der weiter oben erwähnte Workshop gezeigt. Die Idee wäre beispielsweise , bei jeder KI gestützten Diagnose einen Beipackzettel dazu zu packen, anhand dem klar erkenntlich wird wofür die KI verwendet wurde, womit die KI trainiert wurde, was die KI kann und was sie nicht kann.

KI zu verteufeln oder, wie in Dune nach dem Butlerian Djihad, komplett zu verbieten halte ich für nicht zielführend, aber man sollte nicht blauäugig sein und die Gefahren und Risiken ignorieren.
 
@Dr. Sol Das meinte ich gar nicht.

Missbrauch ist ja bereits das Schreiben lassen von Hausaufgaben per ChatGPT. Oder das Fälschen von Bild-, Audio- und Videomaterial mit Täuschungsabsicht, wie es mittlerweile in Presse, Politik und Wirtschaft en vogue ist. Das ist mittlerweile so lächerlich einfach geworden, dass es bereits alle Kommunikationskanäle mit total hirnloser Kacke geflutet hat.
 
@Dr. Sol Das meinte ich gar nicht.

Missbrauch ist ja bereits das Schreiben lassen von Hausaufgaben per ChatGPT. Oder das Fälschen von Bild-, Audio- und Videomaterial mit Täuschungsabsicht, wie es mittlerweile in Presse, Politik und Wirtschaft en vogue ist. Das ist mittlerweile so lächerlich einfach geworden, dass es bereits alle Kommunikationskanäle mit total hirnloser Kacke geflutet hat.
Oder, wie weiter oben im Video erklärt, sich Anleitungen zum Bau von Chemiewaffen erstellen lassen (die auch wirklich funktionieren würden).

Die Frage ist nur, ob es für Regulierungen bereits zu spät ist. Zum Teil wurde ja längst der Source Code und Trainingsdaten öffentlich zugänglich gemacht.

Edit: Es ist irgendwie auch ein kurioser Nebeneffekt dass KI ineffizienter zu werden scheint sobald man anfängt, moralische Richtlinien im Training einzubeziehen.
 
Zuletzt bearbeitet:
Die Frage ist nur, ob es für Regulierungen bereits zu spät ist.

Denke ich nicht. Nur müssen sich erst noch Erkenntnisse herauskristallisieren aufgrund derer man eine praktische Philosophie entwickeln kann. Lernen durch Schmerz muss es jetzt halt sein, weil die vorhergehenden Ermahnungen in Hinsicht auf das Gefahrenpotential gänzlich verpufft und durch Leute wie Trump und Musk faktisch negiert wurden.

Oder, wie weiter oben im Video erklärt, sich Anleitungen zum Bau von Chemiewaffen erstellen lassen.

Ich verstehe von Chemie gerade so viel, dass ich weiß, dass man sich bei laienhaftem Umgang eher selbst anzündet, in die Luft jagt oder vergiftet, als was Brauchbares zustande zu bringen. Und viele Chemikalien als Ausgangsstoff für andere Produkte sind ja zum Glück einer strengen Regulierung unterworfen.
 
@icebär Vielleicht wäre es tatsächlich gar nicht verkehrt wenn die AI Bubble platzt, einige Tech Companies pleite gehen und Grundlagenforscher wieder Zeit gewinnen, zu verstehen was da eigentlich genau passiert.

KI wird nicht mehr weg gehen und wird für viele ein Werkzeug im Berufsalltag und der Wissenschaft werden, da muss man sich keine Illusionen machen. Die Geschwindigkeit, mit der das ganze passiert, ist es, die zur Diskussion steht.
 
Zurück
Oben