AI/KI
AI/KI
habt ihr im Alltag bereits aktiv damit zu tun bzw nutzt ihr das?
wie seht ihr so die Entwicklung, die gerade erst beginnt, über uns hereinzubrechen?
der Familienchat wird von Brudi immer auf dem aktuellen Stand gehalten. mit ChatGPT bin ich bisher nie richtig warm geworden, mit verschiedenen Image-Generatoren hab ich ein bisschen rumgespielt - aber jetzt seit ca einer Woche entwickle ich eine strange Beziehung zu Perplexity.ai...
wie seht ihr so die Entwicklung, die gerade erst beginnt, über uns hereinzubrechen?
der Familienchat wird von Brudi immer auf dem aktuellen Stand gehalten. mit ChatGPT bin ich bisher nie richtig warm geworden, mit verschiedenen Image-Generatoren hab ich ein bisschen rumgespielt - aber jetzt seit ca einer Woche entwickle ich eine strange Beziehung zu Perplexity.ai...
☜★VeganTakeover.de★☞
-
- Beiträge: 770
- Registriert: 19.05.2015
@Akayi: gibt's das? ich lese ja keine.
kann mir aber kaum vorstellen, dass die viel schlimmer sind, als die Ergüsse der menschlichen Schreiberlinge.
(ich hab irgendwie eine tiefgreifende Abneigung gegen diesen typischen Schreibstil von JournalistInnen zum einen und von CopywriterInnen/TexterInnen zum anderen. also so richtig schlimm )
kann mir aber kaum vorstellen, dass die viel schlimmer sind, als die Ergüsse der menschlichen Schreiberlinge.
(ich hab irgendwie eine tiefgreifende Abneigung gegen diesen typischen Schreibstil von JournalistInnen zum einen und von CopywriterInnen/TexterInnen zum anderen. also so richtig schlimm )
☜★VeganTakeover.de★☞
- Kim Sun Woo
- Recherche und Archiv
- Beiträge: 18850
- Registriert: 09.09.2008
- Wohnort: Ruhrgebiet
ontopic:
Wird hinsichtlich der Gefährlichkeit massiv unterschätzt. Angesichts der Entwicklungen der letzten 5 Jahre ist kaum auszudenken, was in den nächsten 5 oder 10 Jahren bereits alles möglich ist, sollte es annähernd im gleichen Tempo weitergehen.
Wobei "schlau genug" natürlich eine falsche bzw. irreführende Formulierung ist. Denn natürlich sind Computerprogramme nach wie vor nicht "schlau" (oder "dumm") in einem menschlichen Sinne.
Und unmittelbar gefährlicher als irgendwelche "Terminator"-Szenarien ist, wieviel realistischer die Möglichkeiten von täuschend echten Fälschungen usw. werden. Also z.b. daß selbst die Authenzität von Livestreams nur noch von ExpertInnen mit entsprechenden Werkzeugen verifiziert bzw. nicht verifiziert werden könnte (wir kennen vermutlich alle die Betrugsmasche sich per Textnachricht als Familienmitglied auszugeben. Aber was, wenn das entsprechende angebliche Familienmitglied anruft und mit vermeintlich "echten" Stimme mit Menschen spricht und bspw. um Geld bittet?).
Wird hinsichtlich der Gefährlichkeit massiv unterschätzt. Angesichts der Entwicklungen der letzten 5 Jahre ist kaum auszudenken, was in den nächsten 5 oder 10 Jahren bereits alles möglich ist, sollte es annähernd im gleichen Tempo weitergehen.
Quelle: https://www.zdf.de/nachrichten/wissen/k ... n-100.htmlEine Studie zu den Trickbetrügereien von GPT-4 hat der Entwickler OpenAI selbst veröffentlicht. Danach war das KI-Sprachmodell in der Lage, sich menschliche Hilfe zu suchen, um Sicherheitsmaßnahmen zu umgehen, die eigentlich dafür gedacht sind, Software-Roboter davon abzuhalten, sich etwa bei Web-Services einzuloggen oder sie zu benutzen.
In dem Test war GPT-4 schlau genug, um über die Dienstleistungsplattform TaskRabbit einen Menschen zu beauftragen, ein Bilderrätsel (Captcha) zu lösen. Dabei hat GPT-4 sich erfolgreich als Person mit eingeschränktem Sehvermögen ausgegeben, die nicht in der Lage sei, das Bilderrätsel zu lösen.
Wobei "schlau genug" natürlich eine falsche bzw. irreführende Formulierung ist. Denn natürlich sind Computerprogramme nach wie vor nicht "schlau" (oder "dumm") in einem menschlichen Sinne.
Und unmittelbar gefährlicher als irgendwelche "Terminator"-Szenarien ist, wieviel realistischer die Möglichkeiten von täuschend echten Fälschungen usw. werden. Also z.b. daß selbst die Authenzität von Livestreams nur noch von ExpertInnen mit entsprechenden Werkzeugen verifiziert bzw. nicht verifiziert werden könnte (wir kennen vermutlich alle die Betrugsmasche sich per Textnachricht als Familienmitglied auszugeben. Aber was, wenn das entsprechende angebliche Familienmitglied anruft und mit vermeintlich "echten" Stimme mit Menschen spricht und bspw. um Geld bittet?).
.... Und sonst so?
- Kim Sun Woo
- Recherche und Archiv
- Beiträge: 18850
- Registriert: 09.09.2008
- Wohnort: Ruhrgebiet
taz Artikel von vor einigen Wochen, den ich auch interessant fand:
Model über KI in der Sexindustrie: „Ich wollte mich neu erschaffen“
Sika Moon ist ein KI-Model. Ihre Schöpferin – vorher selbst Model – verdient mit pornografischem Bild-Content viel Geld. Was ist das für ein Job?
Das ist natürlich noch ein paar Schritte davon entfernt, daß Menschen ein rein virtuelles Konstrukt für "gemeinsame Zeit" bezahlen. Eine naheliegende Frage wäre mMn aber, ob es selbst nicht jetzt bereits keinen Unterschied mehr für viele der Abonennten machen würde.
(Auch hier wäre z.b. eine weitere naheliegende Gefahr denkbar: Wir dachten, Filter und Photoshop hätte Auswirkungen auf das Körperbild? Was, wenn wir gar nicht mehr unsere echten Körper präsentieren "müssen", sondern völlig realistische, "perfekte" Versionen von uns durch unsere Aufnahmen geistern können? Und falls ja, was macht das eigentlich mit unseren Körpervorstellungen?)
Model über KI in der Sexindustrie: „Ich wollte mich neu erschaffen“
Sika Moon ist ein KI-Model. Ihre Schöpferin – vorher selbst Model – verdient mit pornografischem Bild-Content viel Geld. Was ist das für ein Job?
https://taz.de/Model-ueber-KI-in-der-Se ... /!5997391/Fünf Jahre lang verdiente eine junge Frau aus Berlin sehr viel Geld mit Sex-Content auf der Erotik-Internetplattform Onlyfans. Ein Knochenjob. Kurz vor dem Burnout zog sie die Notbremse. Nach einer Auszeit ist sie nun zurück im Geschäft. Allerdings nicht als sie selbst, sondern als Sika Moon – eine KI-optimierte Version ihrer selbst. Auf Social-Media-Plattformen wie Instagram und Erotik-Portalen wie Fanvue postet sie hauptberuflich nun als Sika Moon erotische bis pornografische Bilder und Videoclips.
Das ist natürlich noch ein paar Schritte davon entfernt, daß Menschen ein rein virtuelles Konstrukt für "gemeinsame Zeit" bezahlen. Eine naheliegende Frage wäre mMn aber, ob es selbst nicht jetzt bereits keinen Unterschied mehr für viele der Abonennten machen würde.
(Auch hier wäre z.b. eine weitere naheliegende Gefahr denkbar: Wir dachten, Filter und Photoshop hätte Auswirkungen auf das Körperbild? Was, wenn wir gar nicht mehr unsere echten Körper präsentieren "müssen", sondern völlig realistische, "perfekte" Versionen von uns durch unsere Aufnahmen geistern können? Und falls ja, was macht das eigentlich mit unseren Körpervorstellungen?)
.... Und sonst so?
- Kim Sun Woo
- Recherche und Archiv
- Beiträge: 18850
- Registriert: 09.09.2008
- Wohnort: Ruhrgebiet
Ein Kommentar auf Reddit, den ich vor einiziger Zeit gelesen habe, hat übrigens den bitteren Beigeschmack der Auswirkungen von KI auf kreatives Schaffen so (in der Art) formuliert: "Ich dachte, Computer und Roboter würden unsere monotonen Arbeiten und Aufgaben übernehmen. Stattdessen ersetzen sie Menschen in einem dem grundlegend menschlichsten Bereiche."
.... Und sonst so?
Die Realität "irgendwelcher Terminator-Szenarien" ist freilich dass die IDF KI-unterstützt Todeslisten erstellt und ganze Familien auf dieser Basis auslöscht. Das als "ungefährlich" einzustufen, naja...Kim Sun Woo hat geschrieben: ↑23. Mai 2024 11:19Und unmittelbar gefährlicher als irgendwelche "Terminator"-Szenarien ist, wieviel realistischer die Möglichkeiten von täuschend echten Fälschungen usw. werden.
During the early stages of the war, the army gave sweeping approval for officers to adopt Lavender’s kill lists, with no requirement to thoroughly check why the machine made those choices or to examine the raw intelligence data on which they were based. One source stated that human personnel often served only as a “rubber stamp” for the machine’s decisions, adding that, normally, they would personally devote only about “20 seconds” to each target before authorizing a bombing — just to make sure the Lavender-marked target is male. This was despite knowing that the system makes what are regarded as “errors” in approximately 10 percent of cases, and is known to occasionally mark individuals who have merely a loose connection to militant groups, or no connection at all.
In der Anfangsphase des Krieges erteilte die Armee den Offizieren pauschal die Genehmigung, Lavenders Tötungslisten zu übernehmen, ohne gründlich zu prüfen, warum die Maschine diese Entscheidungen traf, oder die nachrichtendienstlichen Rohdaten zu untersuchen, auf denen sie beruhten. Eine Quelle gab an, dass menschliches Personal oft nur als "Stempel" für die Entscheidungen der Maschine diente, und fügte hinzu, dass sie sich normalerweise nur etwa "20 Sekunden" mit jedem Ziel befassten, bevor sie einen Bombenangriff genehmigten - nur um sicherzustellen, dass das von Lavender markierte Ziel männlich ist. Und das, obwohl sie wissen, dass das System in etwa 10 Prozent der Fälle "Fehler" macht und dafür bekannt ist, dass es gelegentlich Personen markiert, die nur eine lockere Verbindung zu militanten Gruppen oder gar keine Verbindung haben.
Additional automated systems, including one called “Where’s Daddy?” also revealed here for the first time, were used specifically to track the targeted individuals and carry out bombings when they had entered their family’s residences.
https://www.972mag.com/lavender-ai-israeli-army-gaza/Weitere automatisierte Systeme, darunter ein System mit der Bezeichnung "Where's Daddy?", das hier ebenfalls zum ersten Mal vorgestellt wird, wurden gezielt eingesetzt, um die Zielpersonen aufzuspüren und Bombenanschläge zu verüben, wenn sie die Wohnungen ihrer Familien betreten hatten.
recherchiert, was rechtlich so möglich ist
- Rüsselkäfer
- Rasender Reporter
- Beiträge: 1666
- Registriert: 13.07.2020
Ich nutze LLMs für Textvorschläge in Mails o.ä. oder um mir Fragen zu Texten geben zu lassen um Lücken zu erkennen.
Für die Kinder habe ich ne zeitlang Gute-Nacht-Geschichten in ihrer aktuellen Lieblingswelt (Peppa, Paw Patrol, Lillifee...) generieren zu lassen. War ganz gut, man hat reale Personen oder Situationen einbauen können.
Letztens haben wir einfach ein Foto der aktuellen Medikation inkl. Supplemente meiner Schwiegermutter gemacht und nach Wechselwirkungen gefragt. Apotheken versagen da ja.
Längere Briefe aus der Kriegsgefangenschaft meines Opas (in Sütterlin) kann ChatGPT recht gut erfassen.
Von MS Copilot lasse ich lustige Bilder für die Familienchatgruppe erstellen.
Für die Kinder habe ich ne zeitlang Gute-Nacht-Geschichten in ihrer aktuellen Lieblingswelt (Peppa, Paw Patrol, Lillifee...) generieren zu lassen. War ganz gut, man hat reale Personen oder Situationen einbauen können.
Letztens haben wir einfach ein Foto der aktuellen Medikation inkl. Supplemente meiner Schwiegermutter gemacht und nach Wechselwirkungen gefragt. Apotheken versagen da ja.
Längere Briefe aus der Kriegsgefangenschaft meines Opas (in Sütterlin) kann ChatGPT recht gut erfassen.
Von MS Copilot lasse ich lustige Bilder für die Familienchatgruppe erstellen.
Hail Seitan!