AI/KI

Politische Diskussionen ohne Tierrechtsbezug
Benutzeravatar
illith
Berufs-Veganer
Beiträge: 70351
Registriert: 09.01.2008
Wohnort: Niedersachsen

AI/KI

Beitrag von illith » 23. Mai 2024 01:18

habt ihr im Alltag bereits aktiv damit zu tun bzw nutzt ihr das?
wie seht ihr so die Entwicklung, die gerade erst beginnt, über uns hereinzubrechen?

der Familienchat wird von Brudi immer auf dem aktuellen Stand gehalten. mit ChatGPT bin ich bisher nie richtig warm geworden, mit verschiedenen Image-Generatoren hab ich ein bisschen rumgespielt - aber jetzt seit ca einer Woche entwickle ich eine strange Beziehung zu Perplexity.ai... :?
☜★VeganTakeover.de★☞
BlogShirtsBuch

Benutzeravatar
Akayi
Akinator
Beiträge: 30457
Registriert: 09.02.2008

Beitrag von Akayi » 23. Mai 2024 09:58

Ich benutze es schon öfter mal. Z.B. um aus Notizen einen Fließtext zu machen, um Texte zu kürzen oder Strukturen zu erstellen. Solche Sachen. Was mich nervt sind diese dämlichen KI Artikel in Tageszeitungen.
recherchiert, was rechtlich so möglich ist

Mr. Kennedy
Beiträge: 770
Registriert: 19.05.2015

Beitrag von Mr. Kennedy » 23. Mai 2024 10:36

Akayi hat geschrieben:
23. Mai 2024 09:58
Ich benutze es schon öfter mal. Z.B. um aus Notizen einen Fließtext zu machen, um Texte zu kürzen oder Strukturen zu erstellen. Solche Sachen. Was mich nervt sind diese dämlichen KI Artikel in Tageszeitungen.
Die Zukunft der Büroarbeit.
Kollege macht aus Bulletpoints nen Fließtext, schickt mir rüber und ich mach aus dem Fließtext wieder Bulletpoints.
Gepriesen sei die KI.

Benutzeravatar
illith
Berufs-Veganer
Beiträge: 70351
Registriert: 09.01.2008
Wohnort: Niedersachsen

Beitrag von illith » 23. Mai 2024 10:41

@Akayi: gibt's das? ich lese ja keine. 😄
kann mir aber kaum vorstellen, dass die viel schlimmer sind, als die Ergüsse der menschlichen Schreiberlinge. 😁
(ich hab irgendwie eine tiefgreifende Abneigung gegen diesen typischen Schreibstil von JournalistInnen zum einen und von CopywriterInnen/TexterInnen zum anderen. also so richtig schlimm 💀)
☜★VeganTakeover.de★☞
BlogShirtsBuch

Benutzeravatar
Akayi
Akinator
Beiträge: 30457
Registriert: 09.02.2008

Beitrag von Akayi » 23. Mai 2024 10:56

Ja, und die sind tatsächlich noch schlimmer^^
recherchiert, was rechtlich so möglich ist

Benutzeravatar
Kim Sun Woo
Recherche und Archiv
Beiträge: 18850
Registriert: 09.09.2008
Wohnort: Ruhrgebiet

Beitrag von Kim Sun Woo » 23. Mai 2024 11:19

ontopic:
Wird hinsichtlich der Gefährlichkeit massiv unterschätzt. Angesichts der Entwicklungen der letzten 5 Jahre ist kaum auszudenken, was in den nächsten 5 oder 10 Jahren bereits alles möglich ist, sollte es annähernd im gleichen Tempo weitergehen.
Eine Studie zu den Trickbetrügereien von GPT-4 hat der Entwickler OpenAI selbst veröffentlicht. Danach war das KI-Sprachmodell in der Lage, sich menschliche Hilfe zu suchen, um Sicherheitsmaßnahmen zu umgehen, die eigentlich dafür gedacht sind, Software-Roboter davon abzuhalten, sich etwa bei Web-Services einzuloggen oder sie zu benutzen.

In dem Test war GPT-4 schlau genug, um über die Dienstleistungsplattform TaskRabbit einen Menschen zu beauftragen, ein Bilderrätsel (Captcha) zu lösen. Dabei hat GPT-4 sich erfolgreich als Person mit eingeschränktem Sehvermögen ausgegeben, die nicht in der Lage sei, das Bilderrätsel zu lösen.
Quelle: https://www.zdf.de/nachrichten/wissen/k ... n-100.html


Wobei "schlau genug" natürlich eine falsche bzw. irreführende Formulierung ist. Denn natürlich sind Computerprogramme nach wie vor nicht "schlau" (oder "dumm") in einem menschlichen Sinne.

Und unmittelbar gefährlicher als irgendwelche "Terminator"-Szenarien ist, wieviel realistischer die Möglichkeiten von täuschend echten Fälschungen usw. werden. Also z.b. daß selbst die Authenzität von Livestreams nur noch von ExpertInnen mit entsprechenden Werkzeugen verifiziert bzw. nicht verifiziert werden könnte (wir kennen vermutlich alle die Betrugsmasche sich per Textnachricht als Familienmitglied auszugeben. Aber was, wenn das entsprechende angebliche Familienmitglied anruft und mit vermeintlich "echten" Stimme mit Menschen spricht und bspw. um Geld bittet?).
.... Und sonst so?

Benutzeravatar
Kim Sun Woo
Recherche und Archiv
Beiträge: 18850
Registriert: 09.09.2008
Wohnort: Ruhrgebiet

Beitrag von Kim Sun Woo » 23. Mai 2024 11:25

taz Artikel von vor einigen Wochen, den ich auch interessant fand:

Model über KI in der Sexindustrie: „Ich wollte mich neu erschaffen“
Sika Moon ist ein KI-Model. Ihre Schöpferin – vorher selbst Model – verdient mit pornografischem Bild-Content viel Geld. Was ist das für ein Job?
Fünf Jahre lang verdiente eine junge Frau aus Berlin sehr viel Geld mit Sex-Content auf der Erotik-Internetplattform Onlyfans. Ein Knochenjob. Kurz vor dem Burnout zog sie die Notbremse. Nach einer Auszeit ist sie nun zurück im Geschäft. Allerdings nicht als sie selbst, sondern als Sika Moon – eine KI-optimierte Version ihrer selbst. Auf Social-Media-Plattformen wie Instagram und Erotik-Portalen wie Fanvue postet sie hauptberuflich nun als Sika Moon erotische bis pornografische Bilder und Videoclips.
https://taz.de/Model-ueber-KI-in-der-Se ... /!5997391/

Das ist natürlich noch ein paar Schritte davon entfernt, daß Menschen ein rein virtuelles Konstrukt für "gemeinsame Zeit" bezahlen. Eine naheliegende Frage wäre mMn aber, ob es selbst nicht jetzt bereits keinen Unterschied mehr für viele der Abonennten machen würde.

(Auch hier wäre z.b. eine weitere naheliegende Gefahr denkbar: Wir dachten, Filter und Photoshop hätte Auswirkungen auf das Körperbild? Was, wenn wir gar nicht mehr unsere echten Körper präsentieren "müssen", sondern völlig realistische, "perfekte" Versionen von uns durch unsere Aufnahmen geistern können? Und falls ja, was macht das eigentlich mit unseren Körpervorstellungen?)
.... Und sonst so?

Benutzeravatar
Kim Sun Woo
Recherche und Archiv
Beiträge: 18850
Registriert: 09.09.2008
Wohnort: Ruhrgebiet

Beitrag von Kim Sun Woo » 23. Mai 2024 11:33

Ein Kommentar auf Reddit, den ich vor einiziger Zeit gelesen habe, hat übrigens den bitteren Beigeschmack der Auswirkungen von KI auf kreatives Schaffen so (in der Art) formuliert: "Ich dachte, Computer und Roboter würden unsere monotonen Arbeiten und Aufgaben übernehmen. Stattdessen ersetzen sie Menschen in einem dem grundlegend menschlichsten Bereiche."
.... Und sonst so?

Benutzeravatar
Akayi
Akinator
Beiträge: 30457
Registriert: 09.02.2008

Beitrag von Akayi » 23. Mai 2024 13:23

Kim Sun Woo hat geschrieben:
23. Mai 2024 11:19
Und unmittelbar gefährlicher als irgendwelche "Terminator"-Szenarien ist, wieviel realistischer die Möglichkeiten von täuschend echten Fälschungen usw. werden.
Die Realität "irgendwelcher Terminator-Szenarien" ist freilich dass die IDF KI-unterstützt Todeslisten erstellt und ganze Familien auf dieser Basis auslöscht. Das als "ungefährlich" einzustufen, naja...
During the early stages of the war, the army gave sweeping approval for officers to adopt Lavender’s kill lists, with no requirement to thoroughly check why the machine made those choices or to examine the raw intelligence data on which they were based. One source stated that human personnel often served only as a “rubber stamp” for the machine’s decisions, adding that, normally, they would personally devote only about “20 seconds” to each target before authorizing a bombing — just to make sure the Lavender-marked target is male. This was despite knowing that the system makes what are regarded as “errors” in approximately 10 percent of cases, and is known to occasionally mark individuals who have merely a loose connection to militant groups, or no connection at all.
In der Anfangsphase des Krieges erteilte die Armee den Offizieren pauschal die Genehmigung, Lavenders Tötungslisten zu übernehmen, ohne gründlich zu prüfen, warum die Maschine diese Entscheidungen traf, oder die nachrichtendienstlichen Rohdaten zu untersuchen, auf denen sie beruhten. Eine Quelle gab an, dass menschliches Personal oft nur als "Stempel" für die Entscheidungen der Maschine diente, und fügte hinzu, dass sie sich normalerweise nur etwa "20 Sekunden" mit jedem Ziel befassten, bevor sie einen Bombenangriff genehmigten - nur um sicherzustellen, dass das von Lavender markierte Ziel männlich ist. Und das, obwohl sie wissen, dass das System in etwa 10 Prozent der Fälle "Fehler" macht und dafür bekannt ist, dass es gelegentlich Personen markiert, die nur eine lockere Verbindung zu militanten Gruppen oder gar keine Verbindung haben.
Additional automated systems, including one called “Where’s Daddy?” also revealed here for the first time, were used specifically to track the targeted individuals and carry out bombings when they had entered their family’s residences.
Weitere automatisierte Systeme, darunter ein System mit der Bezeichnung "Where's Daddy?", das hier ebenfalls zum ersten Mal vorgestellt wird, wurden gezielt eingesetzt, um die Zielpersonen aufzuspüren und Bombenanschläge zu verüben, wenn sie die Wohnungen ihrer Familien betreten hatten.
https://www.972mag.com/lavender-ai-israeli-army-gaza/
recherchiert, was rechtlich so möglich ist

Benutzeravatar
Rüsselkäfer
Rasender Reporter
Beiträge: 1666
Registriert: 13.07.2020

Beitrag von Rüsselkäfer » 23. Mai 2024 14:41

Ich nutze LLMs für Textvorschläge in Mails o.ä. oder um mir Fragen zu Texten geben zu lassen um Lücken zu erkennen.

Für die Kinder habe ich ne zeitlang Gute-Nacht-Geschichten in ihrer aktuellen Lieblingswelt (Peppa, Paw Patrol, Lillifee...) generieren zu lassen. War ganz gut, man hat reale Personen oder Situationen einbauen können.

Letztens haben wir einfach ein Foto der aktuellen Medikation inkl. Supplemente meiner Schwiegermutter gemacht und nach Wechselwirkungen gefragt. Apotheken versagen da ja.

Längere Briefe aus der Kriegsgefangenschaft meines Opas (in Sütterlin) kann ChatGPT recht gut erfassen.

Von MS Copilot lasse ich lustige Bilder für die Familienchatgruppe erstellen. 😅
Hail Seitan!

Antworten