7/8/20241:12:25

2PS004 Generative KI (DE)

Friedemann
Benjamin

Summary

In dieser Episode der 2 Photos Show geht es um generative KI wie ChatGPT und DALL·E, Trainingsdaten, Bildgeneratoren, KI in der Arbeitswelt und verantwortungsbewussten Umgang mit digitalen Tools.

Shownotes

Shownotes

In dieser Episode der 2 Photos Show diskutieren wir, Friedemann und Benjamin, über generative KI. Benjamin erzählt von seinen Karriereweg vom Physiker zum Berater für IT-Sicherheit und seine Begegnung mit KI. Wir diskutieren die Verwendung von ChatGPT und DALL·E von OpenAI zur Bildgenerierung und analysieren die Bildergebnisse. Auch thematisieren wir den Einfluss von Trainingsdaten auf KI-Modelle und diskutieren die Gestaltung von DALL·E und Midjourney.

Die Diskussion geht auch auf die Entwicklung von Bildgeneratoren, wie z.B. Stable Diffusion, und deren Fähigkeit, realistische Objekte darzustellen, ein. Das Gespräch erkundet auch Veränderungen in der kreativen Arbeitswelt durch Technologien wie KI, wobei wir die Bedeutung von Bildung und der verantwortungsbewussten Nutzung digitaler Tools hervorheben.

Diese Episode als Video auf YouTube ansehen. Aufnahmedatum: 14.06.2024

Bild 1 – auf Flickr

Bild 2 – auf Flickr

Kooperation von Raben und Wölfen

Apple Intelligence im Vergleich zu Adobe

Kooperation zwischen Apple und OpenAI

Kritik an Generativer KI

Taschenrechner-Verbot

Timeline

Start
00:00
Friedemann Wulff-Woesten
00:00
Ja, hallo und herzlich willkommen zu einer weiteren Ausgabe der Two-Photos-Show.Wir haben heute ein Spezialthema und zwar geht es um generative AI bzw.Generative künstliche Intelligenz. Ich freue mich sehr, dass heute Benjaminbei uns ist. Hallo Benjamin.
Benjamin Herdeanu
00:22
Hi, ich freue mich auch sehr, hier sein zu können.
Friedemann Wulff-Woesten
00:25
Ja, hallo. Genau, jetzt stellt sich natürlich so ein bisschen die Frage,warum du, warum Benjamin, warum bist du bei uns?Genau, vielleicht kannst du mal kurz sagen, also einerseits kann ich vorausschicken,wir arbeiten zusammen, zusammen bei der Firma.Wir machen beide eigentlich IT-Sicherheitsberatung, aber vielleicht kannst dukurz mal erzählen, wie du so ein bisschen zu diesem Thema gekommen bist.
Benjamin Herdeanu
00:51
Ja, klar, voll gern. Genau, also wir machen IT-Sicherheitsberatung.Das ist natürlich auch im Bereich KI super spannend.Und ja, wie bin ich dazu gekommen? Von Haus aus oder meine Ausbildung ist eigentlicheine andere. Ich bin Physiker.Ich habe in Heidelberg studiert und dann auch meinen Doktor gemacht.Und ja, auch während der Studienzeit habe ich schon viel oder kam ich immerwieder in Kontakt mit Machine Learning.Ein paar Vorlesungen dazu besucht und tatsächlich auch die Themen,die wir dann in der Arbeitsgruppe während der Doktorarbeit angegangen sind,auf eine gewisse Art und Weise hatten die sehr viel überlappt mit Machine Learningund speziell evolutionären Algorithmen.Genau, das heißt, zum einen fachlich habe ich mich dafür schon interessiertund ja, mehrere Freunde von mir sind auch in dem Bereich und dann kommen dieüblichen Diskussionen auf.Und ich meine, heutzutage hört man sehr viel über KI oder AI oder wie man esnennen möchte, Machine Learning.Und ich finde, es ist ein wahnsinnig relevantes Thema, was höchstwahrscheinlichunsere Zukunft sehr stark prägen wird.
Friedemann Wulff-Woesten
02:14
Ja, ja, sehr schön. Das ist doch schon super spannend.Ich meine, wir sind ja nun hier in dem Podcast, ist ja so ein bisschen das Konzept,dass wir zwei Fotos haben.Dadurch, dass es jetzt ja um generative KI geht, haben wir das jetzt so einbisschen so definiert, dass wir die beide generieren.Ja, das heißt, du hast ja jetzt quasi ein Foto generieren lassen.Genau das das Foto seht ihr jetzt auch in den Shownotes bzw.Ja, wenn ihr das auf YouTube schaut in dem YouTube Video, vielleicht kannst du mal kurz sagen.Ja. Ja.Wie du dazu gekommen bist, was so ein bisschen der Hintergrund ist von dem Bild.
Benjamin Herdeanu
03:00
Ja, voll gern. Also die Idee finde ich super cool, dass man Fotos oder Bildermitbringt und dann darüber reden kann.In dem Kontext dachte ich, wäre es super spannend, eigentlich relativ wenigInfo vorweg oder mit reinzugeben.Das heißt, ich hatte die Idee und wollte ganz gern ein Tool nutzen,was halt zum einen ganz viele kennen und nutzen, also Chat-GPT,beziehungsweise das Chat-Interface davon und dementsprechend das DALI-Modell von OpenAI.Und habe überlegt, ja, was ist denn interessant vielleicht zu fragen?Und dann kann man danach darüber reden. Das heißt, der Prompt war,bitte generiere ein Bild, das deinen inneren Zustand bestmöglich beschreibt.Was würdest du Menschen zeigen wollen in Bezug auf das Zusammenspiel von dirund der Menschheit, wenn du es einem Bild darstellen müsstest?
Friedemann Wulff-Woesten
04:08
Mhm.
Benjamin Herdeanu
04:09
Und das war der Prompt und ich dachte so, ja, ich will jetzt nicht zu viel Subjektivitätda reinbringen, also das wollte ich zumindest,ich hoffe, es ist auch halbwegs gelungen und ich fand es dann ziemlich spannend,was rauskam, weil so auf den ersten Blick sehr positiv,Enlightenment etc., das waren so die ersten Assoziationen, die ich hatte.
Friedemann Wulff-Woesten
04:36
Was ich hier halt sehr spannend finde, ist ja einmal, du hast ja gesagt,du hast ChatGPT verwendet.Das heißt natürlich, dass du einerseits erst mal mit einem Large-Language-Model interagiert hast.Das heißt, du hast per Text quasi ChatGPT, ja, ich sag mal, eine Aufgabe gegebenoder so, eine Idee reingegeben.Und ChatGPT hat ja dann, wenn ich das richtig verstehe, nochmal sozusagen einenweiteren Prompt geschrieben, der dann wiederum an Dali weitergegeben wurde. ne?Kannst du, hast du da, also kannst du sagen, was das für ein Prompt dann war?Also der sozusagen, der genauere Prompt, der dann sozusagen abgeleitet wurde?Also das ist auch nicht schlimm, aber den müsstest du sehen da,ne? Bei ChatGPT, bei diesem kleinen I.
Benjamin Herdeanu
05:29
Genau, den müsste ich gerade mal nachschauen. Ja, so, genau.Der Prompt war A vast serene library, also in Englisch, with countless books Ja.Of calm and inspiration parading the scene.
Friedemann Wulff-Woesten
06:16
Ja, das ist sehr, man merkt, Dali hat das, finde ich, richtig gut dargestellt.Also wenn man jetzt diesen Prompt kennt, dann merkt man auch,okay, Dali hat sich da gut dran gehalten, ist dem Prompt gefolgt sozusagen. zu sagen.Das heißt so ein bisschen die, das was ich halt hier interessant finde,ist so ein bisschen dieses dazwischen.Also von deinem recht offenen von deiner recht offenen deinem recht offenenInput letzten Endes hat ja ChatGPT noch ganz viel, sag ich mal,eigene Dinge reingebracht.Bevor dann das Bild erzeugt wurde.Da wäre natürlich jetzt interessant, ja, wie kommt jetzt ChatGPT auf diese Bibliothek?Wie kommt das auf ein Buch?Ich meine, das macht schon Sinn, wenn man sagt, Bücher sind Wissen und ChatGPToder das GPT-4-Modell unten drunter, das Language-Model wurde irgendwie mitBüchern trainiert vielleicht.Das sehe ich schon dass das klar diese diese verbindung ja was denkst du wiewie wie kommt die dazu eben nun genau so ein so eine illustration zu geben für den inneren zustand ja.
Benjamin Herdeanu
07:38
Das ist schon eine spannende frage also zuerst würde ich sagen man sieht aufjeden fall dass es sehr positiven Bias gibt.Das heißt, das sind alles so sehr positive Wörter etc.Und das ist auch ein spannender Punkt, wenn man sich das überlegt,weil ganz oft, wenn ich mit Leuten rede über KI,kommen natürlich auch die positiven Sachen und die Möglichkeiten, die KI halt bieten.Aber gleichzeitig kommt immer auch direkt Angst.Ähm, Angst vor Jobverlust oder, ähm, ja, wenn's extrem wird,die existenzielle Angst.
Friedemann Wulff-Woesten
08:22
Ja.
Benjamin Herdeanu
08:23
Etc. Das hat man hier nicht. Also, man sieht auf jeden Fall,dass, ähm, ja, GPT-4, ähm, im Prinzip...Ja auch, wie kann man es ausdrücken, darauf trainiert wurde,positiv zu sein und hilfsbereit etc.Also typischerweise diese großen Modelle oder generell Sprachmodelle werdenerst mal darauf trainiert, Sprache zu verstehen, ganz generell.Also zum Beispiel einfach Bücher gibt man als Input und die Aufgabe,die sie kriegen, ist, das nächste Wort immer vorherzusagen.Dafür haben sie halt ein bisschen Vergangenheit zur Verfügung,also ein paar Wörter, die bereits gesagt wurden.Und dann sollen sie im Prinzip ein statistisches Modell approximieren.Das heißt, sie sollen einfach eine Verteilung von wahrscheinlichen Wörtern,nächsten Wörtern rausgeben.Und das macht man dann halt jedes Mal wieder für jedes einzelne Wort und sowird so eine Antwort generiert.Und typischerweise, genau, kann man damit noch nicht allzu viel machen,weil es noch angepasst werden muss.Das heißt, zum einen muss es darauf trainiert werden, ja, im Prinzip so einChat-Format bereitzustellen.Das heißt, auf eine Frage erwarte ich eine Antwort.
Friedemann Wulff-Woesten
09:53
Eine Frage-Antwort-Paar quasi, ne? Genau.
Benjamin Herdeanu
09:56
Und ich erwarte nicht, dass da eine Fragenliste kommt. Und dann gibt es halt auch...
Friedemann Wulff-Woesten
10:02
Ist das so dieses Instruct, was man manchmal so sieht?Also diese Instruktion, dass ein Large-Language-Model eben nicht nur Completionmacht, also nicht nur Vervollständigung, sondern auch Instruktionen folgt, oder?
Benjamin Herdeanu
10:14
Genau, also das muss im Prinzip trainiert werden, so diese Spezialisierung.Du hast folgende Aufgabe, und diese Aufgabe ist halt, so ein Chatbot sein und Fragen zu beantworten.Und ihn möglichst auch nicht auszuweichen. Das ist auch ganz witzig.Da gab es auch mal Probleme.Genau. Und dann im, ja, das ist jetzt alles so ein bisschen einfach runtergebrochen,aber im letzten Schritt gibt es dann noch Reinforcement Learning with Human Feedback.Das heißt, dort lässt man sich verschiedene Antworten dann im Prinzip generierenund Menschen schauen sich die Antworten an und bewerten diese nach verschiedenen Kriterien.Und Und diese Daten nutzt man auch nochmal, um sozusagen die Ergebnisse,die rauskommen, nochmal nachzutrainieren und besser zu machen.Und da kommt zum Beispiel auch das Safety-Training dann rein,also viel rein oder eben auch sowas wie ja.Sei mal hilfsbereit. Also sozusagen.Und das ist eigentlich eine spannende Sache, weil dadurch, dass man das trainiert.Einerseits möchte man Beistes rausnehmen und andererseits fügt man da neue hinzu. Also so wie hier.Es ist ein sehr, sehr positives Bild, genau, um zurückzukommen. Okay, ja.
Friedemann Wulff-Woesten
11:45
Verstehe. Also genau, das ist sozusagen einerseits dieser positive Bias einerseitserstmal in dem LLM, also jetzt in dem Falle GPT-4 oder GPT-4O oder was auch immer.Und was mir noch aufgefallen ist, besonders wenn man jetzt DALI,also den Bildgenerator, der jetzt hier verwendet wurde, vergleicht mit anderen,wie zum Beispiel Midjourney oder Firefly von Adobe beispielsweise oder Stable Diffusion,dann, Dann, genau, das sind jetzt einfach nur so Beispiele von Bildgeneratoren,dann habe ich so immer das Gefühl, dass bei Dali hier gerade,und das passt auch zu dem, was wir gerade gesagt haben,Dali eben auch sehr in der Visualisierung sehr positiv ist.Also warme Farben, Farben, die irgendwie Menschen gerne sehen.Hier ist ja auch diese Friedenstaube, die finde ich da sehr interessant,die dann irgendwie rausfliegt aus dem Buch.Auch an sich, diese Bibliothek sieht ja auch erstmal einladend aus.Also vor allem auch vorne, im Vordergrund diese Kerzen, das finde ich auch irgendwieso ein bisschen lustig und passt, denn du hast ja in der Bibliothek kein Feuer,eigentlich kein offenes Feuer.Das ist so ein bisschen so, fast so Lagerfeuer-mäßig.
Benjamin Herdeanu
13:02
Schon ja, Hogwarts-Feeling ja, so ein bisschen, genau.
Friedemann Wulff-Woesten
13:05
Oder Harry Potter genau.
Benjamin Herdeanu
13:06
Ja, ja, ja, genau ja.
Friedemann Wulff-Woesten
13:08
Ja, also das ist da frag ich mich natürlich und das ist natürlich auch irgendwietotal spannend, jetzt nochmal als Ebene auf diesem,Sprachmodell, was wir gerade besprochen hatten mit JGBT, was natürlich irgendwieantrainiert wurde so wurde ja auch der Bildgenerator der jetzt hier eben in dem Fall Dali ist,angelernt und Und da macht es für mich den Eindruck, dass, ich weiß natürlichjetzt nicht, welche Trainingsdaten OpenAI da jetzt für DALI verwendet hat,aber da macht es für mich den Eindruck, dass die sehr, ja,wahrscheinlich viel Illustrationen haben,irgendwie vielleicht so lizenzierte Stockfotografie, sowas kann ich mir vorstellen.Das ist halt sehr, das ja dort wahrscheinlich jetzt auch nicht so viel ist.Ich sag mal, die werden jetzt nicht Kriegsfotografie wahrscheinlich genommenoder so Kriegsreportagefotografie. Kann ich mir nicht vorstellen,dass die das jetzt nun, also vielleicht haben sie es auch genommen,aber dann sicherlich nicht in so einem hohen Maße.Denn man merkt ja auch, dass ich habe manchmal gemerkt bei LGBT,dass natürlich so Sachen wieKrieg, Waffen, sowas wird halt teilweise dann auch gar nicht generiert.Oder dann wird gesagt, nee, das Verstöß gegen die Bedingungen oder sowas.Also das finde ich halt auch sehr interessant, dass man vielleicht auch so einbisschen, also dass man auch nochmal einen positiven Bias in der Bildgenerierunghat und dass halt eben versucht wird, gewisse Dinge auch aus sehr gutem Grund.Vielleicht kommen wir dann später auch noch so auf Deepfakes oder sowas,man kann ja auch wirklich so jetzt vielleicht, gerade wenn es fotorealistischwird, könnte man ja theoretisch auch Personen jetzt Politiker generieren in einem.Zusammenhang, der eigentlich gar nicht da ist. Und dann könnte man jetzt sagen,ja, der Politiker, der ist jetzt verhaftet worden.Es gab ja mal von Trump, glaube ich, diese Bilder, wie er im Gefängnis ist.Die waren natürlich aber einfach nur generiert. In dem Fall,glaube ich, von Midjourney.Und sowas will wahrscheinlich Open Air einfach dann auch nicht.Dass man sagt, okay, wir schließen hier gewisse Dinge aus und dann zeigen wirhalt die Friedenstaube und wir zeigen die warme Bibliothek mit dem Buch.Ja, und dann, so, und wir machen gar nicht erst was Anstößiges, ne?
Benjamin Herdeanu
15:27
Mhm, ja, das sind genau die spannenden Fragen.Und ich wüsste super gern, welche Daten OpenAI tatsächlich nutzt zum Training.Und nicht nur ich, sondern viele.
Friedemann Wulff-Woesten
15:38
Weiß man das? Nee, das ist Geheimnis, wahrscheinlich, ne?
Benjamin Herdeanu
15:43
Ja, genau, also der OpenAI-Name ist ein bisschen misleading.Ist nicht so offen. Das weiß man nicht. Ja, ja. Ähm,Genau, das ist halt die andere Frage, so was veröffentlichen die einzelnen Unternehmen?Also was kann Open und Open Source dann überhaupt bedeuten? Das Modell,die Gewichte, die Trainingsdaten etc.Und ja, es ist wahrscheinlich eine der wichtigsten Sachen, welche Daten gibt man rein?Welche Daten nutzt man zum Training und welche Zusammensetzung auch an Trainingsdaten?Und das ist natürlich enorm relevant und enorm wichtig.Also zum einen benötigt man Unmengen an Daten, um so ein Modell zu trainieren,sei es ein Sprachmodell, sei es ein Bildgeneratormodell, das ist das Gleiche.Ja. Einfach wahnsinnig viele Daten.Und natürlich, je besser die Daten sind, desto besser sind die Ergebnisse. Ja.Also man kriegt auch kleinere Modelle.
Friedemann Wulff-Woesten
16:51
Ich meine, je besser, also jetzt bei Bildern beispielsweise könnte ich mir vorstellen,ich weiß jetzt dann natürlich nicht die Details, aber dass man,wenn man jetzt, deshalb eignet sich wahrscheinlich Stockfotografie auch gut,wenn man jetzt ein Bild hat und dann steht da halt dran, das ist eine Tomate,die ist in dem und dem Licht, die ist blablabla, also das sozusagen,später muss ja das Modell irgendwie einem Prompt folgen.Und je besser das Bild sozusagen jetzt schon textzugeordnet ist,könnte ich mir jetzt laienhaft vorstellen, desto besser sind dann die Daten.Oder was meinst du mit guten Daten oder qualitativen Daten?
Benjamin Herdeanu
17:25
Das ist spannend.Da gibt es verschiedene Aspekte. Ich war tatsächlich bei einem anderen Bereich,also tatsächlich bei Text ist es leichter verständlich.Wissenschaftliche Arbeiten, Textbücher etc., das sind sozusagen hochqualitative Texte oder Literatur.Beispielsweise, wohingegen Forum-Posts oder manche Forum-Posts jetzt nicht unbedingtdie besten Daten sind, weil,Bei Bildern ist es, glaube ich, ein bisschen komplizierter. Da kann man schonauch verschiedene Qualitäten feststellen.Und je nachdem, was man auch trainieren möchte. Also welche Fähigkeiten man vor allem haben möchte.Du bist auch noch auf einen anderen Punkt eingegangen, den ich super wichtig fand.Sozusagen diese negativen Beispiele oder Daten. Ja.Weil, ja, man will halt verhindern, man möchte oft verhindern,dass so schädliche oder gefährliche Inhalte produziert werden.
Friedemann Wulff-Woesten
18:36
Also Gewalt oder auch Pornografie könnte ich mir vorstellen,ist was, was eingeschränkt ist.
Benjamin Herdeanu
18:41
Genau, da wird auch einiges an Training gemacht oder an Anpassungen,um diese Inhalte zu verhindern.Ist halt immer schwierig, weil das ist automatisch eine gewisse Art von Zensur.
Friedemann Wulff-Woesten
18:56
Ja.
Benjamin Herdeanu
18:57
Das muss nicht schlecht sein, also muss nicht die negative Konnotation haben. Gleichzeitig...Möchte man ja aber schon, dass Modelle sowas schon mal gesehen haben,damit sie damit umgehen können.
Friedemann Wulff-Woesten
19:11
Das einordnen können, überhaupt verstehen.
Benjamin Herdeanu
19:13
Genau. Ja. Das sind so ein bisschen die Probleme, die man wahrscheinlich auchbei der Kindererziehung hat.So, ja, wann gibt man einem Kind ein Handy und setzt Social Media aus?
Friedemann Wulff-Woesten
19:23
Ja, ja.
Benjamin Herdeanu
19:24
Also, wenn man es gar nicht macht, dann besteht halt die Gefahr,dass sie irgendwann später, ja, sehr abhängig werden.
Friedemann Wulff-Woesten
19:31
Oder keine Meeting-Kompetenz haben oder eben das nicht einordnen können.
Benjamin Herdeanu
19:36
Genau. Und wenn man es komplett unbeschränkt lässt wie jetzt,hat das auch gerade psychisch keine guten Auswirkungen. Und das ist auch bekannt.Das heißt, auch hier ist es natürlich anders, weil man hier eine Maschine trainiert.Dennoch hat man diese Probleme und die Fragestellungen dann auch immer wieder.Und man darf auch nicht vergessen, Modelle, KI sind halt einfach stochastische Modelle.Das heißt, ab und zu, selbst wenn es einmal in einer Million Outputs ist,wird es mal halt passieren, dass da was rauskommt.Und ja, gerade mit Social Media etc.Kriegt man das dann auch mit. Gleichzeitig muss man auch sagen,es ist wahnsinnig erstaunlich, was Modelle können. Ja. Generell, finde ich.Auf der anderen Seite ist es auch erstaunlich, was sie nicht können.Also so Dinge, die für uns super einfach sind.Konzepte, planen, denken, zählen. Sowas wie zählen. Ja. Das ist für Modelle sehr, sehr schwierig.Das heißt, erst dieses Nachdenken.
Friedemann Wulff-Woesten
20:51
Was ich da sehr interessant fand, also es gibt ja, ich hatte das vorhin schonmal ganz kurz angesprochen, Stable Diffusion ist auch so ein Bildgenerator,also wenn man jetzt bei den Bildgeneratoren bleibt, da gab es jetzt ein neues Modell, was rauskam.Also ich hatte Stable Diffusion, ich glaube, 1 und 2.Die früheren hatte ich auch mal selber ausprobiert.Das Coole bei Stable Diffusion ist, dass man das halt lokal auf seinem Computer,wenn man jetzt, also zum Beispiel bei mir auf meinem Mac, ich habe halt genügendGPU, also genügend Grafikspeicher, sodass das Stable Diffusion auch läuft.Das kann man sozusagen lokal machen.Das muss man, genau, das muss man vielleicht auch noch sagen.DALI, von dem wir gesprochen haben, und auch mit Journey, auch Adobe Fireflyist nur über die Cloud erreichbar. Das heißt, da ist man auf einen Anbieterangewiesen. Bei Stable Diffusion kann man das lokal machen.Das ist ein wichtiger Unterschied. Und bei Stable Diffusion gibt es jetzt einneues Modell, ich glaube Stable Diffusion 3 Medium,wo sie nämlich genau das, was wir gerade sagten, sie haben da ganz viel,das kam jetzt gerade raus, sie haben ganz viel so Safety-Geschichten gemacht.Also sie haben quasi sehr stark zensiert, was dazu geführt hat,dass Stable Diffusion jetzt Menschen überhaupt gar nicht mehr wirklich darstellen kann,zum Beispiel eben viel zu viele Finger wieder macht oder ganz komische Proportionen,was genau das ist, was du vorhin gesagt hast.Also sozusagen, da kann man jetzt natürlich nur spekulieren,warum ist jetzt da eine Regression drin, denn die Modelle davor von Stable Diffusionkonnten Menschen sehr gut darstellen.Selbst Finger waren okay und jetzt gibt es quasi eine Regression,weil sie wahrscheinlich zu viel entfernt haben oder zu restriktiv waren.Ja, genau das weiß man noch nicht, aber das finde ich sehr, sehr spannend,weil du ja auch gesagt hast. Also, ein Bildgenerator muss natürlich mal.Menschliche Körper sehen und muss natürlich auch mal Hände sehen aus allen möglichenverschiedenen Perspektiven, um zu wissen, dass eben eine Hand fünf Finger hat und nicht zehn.Und das ist wahrscheinlich da genau diese interessante Abwägung, wie viel zeigt man,denn man will ja am Ende, dass Menschen in der richtigen Proportion dargestelltwerden, wenn das Ziel von dem Modell ist, eben Menschen ordentlich zu generieren.Das heißt, wenn man zu viel zensiert, hat man halt irgendwann auch wiederumdas Problem, dass es eben Menschen nicht mehr wirklich gut zeichnen kann oder visualisieren kann,weil es eben diese Konzepte nicht mehr versteht, wie zum Beispiel,dass eben Menschen fünf Finger haben oder eben zwei Augen.
Benjamin Herdeanu
23:29
Ja, das bringt für mich halt echt die Frage auf,fehlt da die mehr Fähigkeit zu denken oder zu verstehen, weil ich dachte gerade,ja, wie ist das denn bei uns?Ich denke, wir können schon viel in Kontakt kommen mit negativen Sachen undgleichzeitig können wir entkoppelt davon lernen, das sollte man nicht machen.Oder das ist nicht gut. Oder in gewissen Situationen sollte ich das nicht äußern oder so.Und diese, also trotzdem können wir halt immer noch ein Verständnis davon haben.
Friedemann Wulff-Woesten
24:09
Genau, genau.
Benjamin Herdeanu
24:10
Und das scheint zumindest schwer zu sein bei den Bildgeneratoren-Modellen.Also diese Trennung zwischen, ja, Konzepte gut verstehen und dann aber zu wissen,ja, ich sollte sie nicht anwenden.
Friedemann Wulff-Woesten
24:28
Und dann aber trotzdem natürlich noch was, was ich jetzt auf Bildern gesehen habe.Also nochmal, um auf Mid-Journey zu kommen.Du hattest ja jetzt mit Dali dein Bild generiert, ich hatte das mit Mid-Journeygemacht und was ich bei Mid-Journey gesehen habe ist, und das vielleicht jetztauch so ein bisschen als Übergang zu dem zweiten Bild,das ihr jetzt auch seht, in den Shownotes beziehungsweise auf YouTube.Da sieht man jetzt im Vergleich schon, dass dieses Bild zum Beispiel von denFarben gar nicht mehr so,gar nicht mehr so schön warm und Kerzenschein und so ist, sondern eher doch,ich würde fast sagen realistischer,ich würde sagen ein bisschen kälter, obwohl es jetzt nicht kalt ist,ja, aber es ist kälter von der Stimmung.Und was mir bei Midjourney aufgefallen ist, ist, dass Midjourney beispielsweise Waffen generiert.Midjourney generiert Menschen unglaublich realistisch.Midjourney scheint viel mehr gesehen zu haben, so als Dali, so von meinem Dafürhalten.Dass das bedeutet so ein bisschen, dass Midjourney wahrscheinlich oder die Organisation,die dahinter steht, Midjourney, also diese Modellen einfach viel mehr Datengezeigt hat und sie dann irgendwie danach wahrscheinlich,also es gab bei Midjourney beispielsweise dieses Beispiel, dass Leute Bildervom Papst generiert haben in irgendwelchen Balenciaga-Jacken oder von Trump im Gefängnis.Und Midjourney wusste, wer Trump ist, hat Trump super realistisch generiert,ja, und hat ihn dann halt in so eine Gefängniszelle gesetzt.Das heißt, Midjourney hat offensichtlich Bilder von Trump gesehen,sonst hätte das ja gar nicht machen können.Dann hat aber später Midjourney dann zurückgerudert und hat gesagt,okay, ihr dürft keine Bilder mehr von Politikern erstellen, aber das war eherso in den Terms of Service.Es war jetzt nicht so, dass sie das jetzt aus den Trainingsdaten offensichtlichrausgenommen haben, sondern sie haben gesagt, ihr dürft das einfach auf unsererPlattform nicht machen.Ja, aber trotzdem generiert mit Journey solche Sachen teilweise noch.Und das finde ich halt hier sehr spannend. Bei meinem Bild ist es so,also vielleicht erst mal so diese Backstory. Warum?Wie komme ich jetzt zu diesem Bild?Ich finde immer interessant, Bildgeneratoren dann zu verwenden,wenn ich irgendwie Konzepte visualisieren will, die ich irgendwie im Kopf habeoder wo ich denke, das ist vielleicht eine coole Bildidee, die ich aber nichtsuper schnell jetzt fotografieren kann.Also wo ich jetzt nicht rausgehen kann und sagen kann, ich weiß,wo das ist und ich fotografiere das einfach in der Stadt.Und ja, was habe ich mir jetzt hier dabei gedacht? Also man sieht einen BorderCollie, einen Hund und einen Raben.Der Border Collie sitzt in einem Fluss und der Rabe hockt auf einem Stein.Und die gucken sich quasi an.
Benjamin Herdeanu
27:22
Und das siehst du nicht draußen?
Friedemann Wulff-Woesten
27:25
Naja, also wie bin ich da drauf gekommen? Warum komme ich jetzt gerade auf so eine verrückte Idee?Also ich habe selber ein Border Collie. Das kann ich jetzt vielleicht an der Stelle sagen.Also ich habe einen Hund, der sieht auch sehr ähnlich diesem Hund,der hier generiert wurde.Also so gesehen, mit Journey weiß sehr genau, was die Rasse Border Collie ist.Passt super. Also das finde ich sehr, sehr realistisch hier schon, die Darstellung.Und was ich beobachtet habe, ist, wenn ich mit meinem Border Collie eben Gassigehe, dass dann manchmal auf einemBaum ein Rabe sitzt und dann sozusagen irgendwie mit uns interagiert.Oder ich habe so den Eindruck, kann natürlich auch sein, ich stelle mir dasnur vor, der Rabe möchte irgendwie mit dem Hund sozusagen irgendwie kommunizierenoder in Kooperation treten.Und was ich dann gehört habe in der Tierdokumentation, ist, dass es im Tierreichin der Tat so ist, ist, dass zum Beispiel Wölfe, die ja nun,also Hunde stammen ja nun von Wölfen ab, dass Wölfe und Raben zusammenarbeiten.Und zwar in der Form, dass Raben halt von oben schauen, wo zum Beispiel irgendwieTiere sind, die schon schwach sind oder so.Und das dann sozusagen da wirklich, es scheint, dass es da eine Kommunikationgibt zwischen den Raben und den Wölfen.Die Wölfe dann diese Tiere jagen und dann quasi die Raben neben sich duldenund dann sozusagen die Wölfe den Raben sozusagen dann noch was übrig lassenund die dann sozusagen dann die Reste von dem Tier dann auch noch essen dürfen.Sodass es da halt so eine ganz lustige, eigentlich ja erstmal für uns ganz unverständlicheKooperation gibt zwischen so einem Raubtier wie einem Wolf und eben so einem Vogel, so einem Raben.Und ich hatte halt den Eindruck irgendwie, dass dieser Rabe...Mit dem Border Collie da, also als ich das wie gesagt gesehen habe,der kam dann auch so nah ran und so,also normalerweise rennen ja Tiere weg von einem Hund, aber der kam irgendwieso ran und dann habe ich gedacht, das wäre doch eine coole Sache für eine Bildidee,aber natürlich hätte ich das nie so darstellen können jetzt mit einer Kameraund dann habe ich gesagt,das generiere ich mal und ich war ehrlich gesagt von dem Ergebnis schon auch überrascht.Also wie, einerseits, was ich hier sehr interessant finde, ist,wie gut der Hintergrund getrennt wird.Also man hat hier ja wirklich ganz klar eine Einteilung im Vordergrund.Das ist so ein bisschen dieses verspiegelte Wasser mit so einer Reflexion.Dann hat man den Border Collie und den Raben, die scharf sind.Und dann hat man den unscharfen Hintergrund. Und das fand ich schon mal,das ist bei deinem Bild beispielsweise, wenn man die so nebeneinander sieht,ist das eher so, dass da alles scharf ist.Aber Midjourney hat hier ja richtig einen Bildaufbau im Sinne von Schärfentiefe aufgebaut.Was ich sehr interessant finde, dass Midjourney offensichtlich ja ein Konzepthat von, wie verhält sich eine Linse?Das sieht fast aus, als hätte man so ein Objektiv von einer Spiegelreflexkameragenommen. genommen und ich finde auch, dass die Struktur von dem Fell des BorderQualleys oder auch von dem Raben sehr.Ausgezeichnet ist, also es ist sehr genau gezeichnet, ja.Ich weiß nicht, Mina, was denkst du da, wenn du das siehst, was macht das aufdich für einen Eindruck, das Bild?
Benjamin Herdeanu
30:52
Ja, sehe ich auch so, ich glaube, bevor ich da weiter darauf eingehe,wollte ich noch eine Rückfrage stellen, weil ich das so spannend finde mit den Raben und den Wölfen.Sorry, wenn das ein bisschen off-topic ist. Aber ein bisschen Wissen kann ich auch abstauben.Dazu, weißt du,Also war da, ist das eine Einzelerscheinung oder tritt das öfter vor?Also hat man das mehrmals beobachtet?
Friedemann Wulff-Woesten
31:17
Es scheint öfter aufzutreten, also ich glaube, dass diese,wo das dokumentiert wurde, ich müsste nochmal ganz genau nachgucken,kann ich auch nochmal raussuchen,das war in einem National Park in den USA und da war das so,dass man, also Wölfe treten ja sowieso in Rudeln auf, also es gibt ja,also Wölfe, da gibt es ja auch eine Hierarchie innerhalb dieses Rudels,also Wölfe planen ja auch Angriffe, also Wölfe sind unglaublich intelligentin dem Sinne, dass sie sozusagen ja sowieso schon zusammenarbeiten untereinander.Und man hat da eben beobachtet, dass komischerweise immer Raben da mit dabei waren.Also immer, wenn Wölfe da irgendwie rumgezogen sind, waren Raben.Und dann hat man gedacht, hä, wieso sind die da immer da?Und genau, die Details weiß ich nicht, aber es hat mich irgendwie fasziniert,weil ich das nicht gedacht hätte, dass so ein Vogel mit so einem Wolf zusammenarbeitet.
Benjamin Herdeanu
32:05
Total, ja. Und dann ist auch die Frage, wie ist das bei verschiedenen Wolfsrudeln?Wenn die halt Konkurrenten sind, beispielsweise helfen da die Raben auch,weil sie haben ja sozusagen diese Sicht.
Friedemann Wulff-Woesten
32:20
Das ist halt auch interessant, dass der Rabe natürlich dadurch,dass er fliegen kann, von oben natürlich einen anderen Überblick hat als dieWölfe, die eben nur eben unten sozusagen agieren.Aber ja, fand ich total interessant. Und deshalb habe ich halt,als ich diesen Raben gesehen habe da, der dann da immer bei uns so,der sitzt immer auf so einem Baum. Also ich weiß immer schon, wo der ist.Und dann habe ich gedacht, wieso kommt der immer? Was will der so?Was natürlich interessant ist, ist jetzt der Unterschied zwischen Hunden undWölfen, dass ja Wölfe nicht wirklich bellen. Also Wölfe heulen ja eher.Und dieses Bellen, was ja Hunde irgendwie über die,Zeit offensichtlich sich als Kommunikationsmechanismus etabliert haben,ist vor allem eben mit Menschen, um mit Menschen zu kommunizieren.Also ein Hund bellt natürlich um Menschen, die ja ihre Bezugspersonen sind,was zu sagen. Das haben aber Wölfe natürlich.Wölfe haben ja keine Menschen so als Bezugsperson, zumindest normalerweise nicht.Ja, und was ich mich dann natürlich frage, ist, wie kommunizieren Raben dannmit den Wölfen? Also wie geben die Informationen weiter.Das ist natürlich auch spannend. Interessant ist der Prompt jetzt,für den Bildgenerator war, ich kann das ja mal vorlesen,also ich habe es auf Deutsch übersetzt, also ich habe mit Jenne gesagt,ich möchte ein fotorealistisches Bild von einem Border Collie und einem Raben,die in der Nähe des Flusses Pina in Pinsk, Belarus, also ich habe sogar eineOrtsangabe gegeben, zusammenarbeiten.Der Border Collie mit seinem schwarz-weißen Fell beobachtet aufmerksam den Raben,der auf einem nahegelegenen Felsen hockt.Passt, ja, Kann man genau so sehen.Der Rabe mit seinem glänzenden schwarzen Gefieder scheint mit dem Hund zu kommunizieren.Also ich habe auch dem Bildgenerator gesagt, ich möchte Kommunikation.Im Hintergrund ist der ruhige Fluss Pina, das ist wie gesagt der Fluss in Pinsk,mit üppigen Grün und Bäumen am Flussopfer zu sehen.Die Szene ist friedlich und lebendig und fängt die einzigartige Interaktionzwischen den beiden Tieren in einer natürlichen Umgebung ein.So, jetzt kann man natürlich diskutieren.Ist das jetzt wirklich Kommunikation, was man hier sieht? Ich meine,sie gucken sich so ein bisschen an. Aber klar, wie soll der Wildgenerator Kommunikation darstellen?
Benjamin Herdeanu
34:37
Genau, genau.
Friedemann Wulff-Woesten
34:38
Morsecode oder ... Also so gesehen ist das eigentlich für den Prompt schon,finde ich das schon super, das Ergebnis. Ja, also ...
Benjamin Herdeanu
34:46
Ja, das ist schon eine spannende Frage. Wenn ich dir gesagt hätte,ja, stell mal dar, wie ein Hund und ein Rabe kommunizieren.Keine einfache Aufgabe. haben.
Friedemann Wulff-Woesten
34:58
Genau, und was Midjourney sich halt ausgedacht hat, ist, er hat sie sozusagenso nebeneinander gesetzt und sie gucken sich quasi an, weil wahrscheinlich Midjourneydenkt, wenn sich Menschen angucken, dann,kommunizieren sie irgendwie, weil sie können ja auch über die Augen kommunizierentheoretisch, also wir können uns ja auch anschauen und,Körpersprache kommunizieren, wir können aber auch miteinander reden.Also ich glaube fast, dass Midjourney da ein Konzept hat, was heißt Kommunikation.Hier ist es ein bisschen lustig, ich finde auch der der Rabe ist ein bisschengroß geraten. Absolut, ja.Aber ich fand's irgendwie spannend.
Benjamin Herdeanu
35:35
Ja, total.
Friedemann Wulff-Woesten
35:35
In diesem Sinne,Ideen generieren, brainstormen, vielleicht Ideen ausprobieren,die man halt nicht so einfach fotografieren kann, das finde ich halt an diesen,Mitgeneratoren so interessant und so cool.Das ist auch für mich ein neues Tool, was ich vorher nicht hatte.Ich konnte vorher nicht einfach, also Also ich bin nicht künstlerisch so begabt,dass ich so eine Collage, Border Collie und Rabe selber, das hätte ich nie sozeichnen können zum Beispiel.Es gibt ja Leute, die können das quasi zeichnen, aber ich bin da sozusagen,das ist für mich halt was, wo ich halt super schön einfach mal irgendwie Dingeausprobieren kann oder Dinge mir visualisieren kann, wo ich dann denke,Mensch, ist ja interessant.Da könnte man vielleicht auch nochmal in anderen Formen.So irgendwo verwenden oder, ne?
Benjamin Herdeanu
36:30
Klar. Und ich meine, genau das ist auch ja,wahrscheinlich das, was man machen kann und was man, ja, vielleicht sogar machen muss,im künstlerischen Bereich, zumindest, ne, wenn man nicht in irgendeiner Nischeist, weil es einem so viele Möglichkeiten bietet und ich meine,das ist jetzt der momentane Stand und es ist absolut absehbar, dass,ähm, die Machine Learning Modelle, KI generell, ähm, besser werden wird.Also zumindest wenn man interpoliert von dem, was war vor zwei Jahren oder was war vor einem Jahr zu.
Friedemann Wulff-Woesten
37:10
Was haben wir jetzt? Mit Journey ist jetzt, wird nie wieder so schlecht seinwie jetzt, ne? Sozusagen kann man so sagen.
Benjamin Herdeanu
37:16
Genau, genau. Muss nicht automatisch heißen, dass es so weiter geht.Das muss man auch dazu sagen.Aber, ähm, ja, es spricht schon wenig nicht dagegen, weil der Weg dahin so austechnischer Sicht scheint eigentlich ziemlich straightforward zu sein.Im Prinzip Skalierung, Daten und Compute, da kriegt man eine ganze Menge raus.Okay, aber das ist eine andere Frage, also oder ein anderer Aspekt.Genau, also dieses vielleicht kann ich auch zurückkommen zu der Frage,die du da vorgestellt hast, bevor ich,abgeschweift bin. Also ich finde auch, es sieht.Schon fotorealistisch aus, auch nicht perfekt. Also wenn man sich Details anguckt,dann wird man schon feststellen, ah okay, so ein bisschen seltsam sieht es dannschon aus, wie du auch meintest, der Rabe ist sehr groß.Ich finde das Wasser vorne weiß nicht, gefühlt auch ein bisschen komisch,ich könnte nicht genau sagen, warum, aber ja, so Details sind auf jeden Fall da.Und man kann ja auch verschiedene Stile mit reingeben. Also was möchte ich haben?Genau, aber so die Frage,beziehungsweise die Sache, es ist halt ein Tool momentan. Es ist ein Tool,mit dem man sehr viel, sehr schnell ausprobieren kann.Und das bietet halt wahnsinnige Chancen. Also selbst wenn man nicht das direktnutzt, um irgendwas Kreatives zu erstellen, ein Foto zu machen, was auch immer, ähm,Ich glaube, ich bin absolut sicher, diese KI-Werkzeuge sind halt Mittel,mit denen man wahnsinnig schnell Ideen ausprobieren kann,brainstormen kann und damit dann weiterarbeiten kann.
Friedemann Wulff-Woesten
39:09
Oder sicher halt auch verschiedene. Was ich bei Midjourney sehr cool finde,das geht ja bei Dally genauso, in ChatGPT ist so diese verschiedenen Varianten.Also bei Midjourney ist es zum Beispiel so, du gibst einen Prompt und kriegst immer vier Varianten.Und du kannst dir einfach immer wieder neue Varianten geben lassen,was ja sonst, also das ist ja das, was normalerweise Zeit gebraucht hätte,aber hier ist das Varianten geben.Ja gar nicht mehr so super, also wenn du erstmal einen Prompt hast,kannst du quasi ja sagen, ja gib mir nochmal vier neue, gib mir nochmal vierneue und dann hast du halt irgendwie 16 Dinger generiert und nimmst eins davon,was sozusagen, wo du ja immer weiter dich sozusagen einem guten Ding annähernkannst und wenn da halt, Weil ich sage mal, wenn da zehn Bilder dabei sind,die Quatsch sind, ja gut, dann ist ja egal, dann schmeißt du die halt einfach weg.Und so hättest du ja sonst nicht gearbeitet. Also du hast natürlich dadurchmehr, genau, also du hast ja auch gesagt, Rechenleistung, das wird irgendwannauch nicht mehr so wirklich das Problem sein.Was ich auch sehe, jetzt bei so, also wenn es jetzt die klassische Fotografieist, Adobe mit den Tools Photoshop und Lightroom hat ja jetzt schon Dinge eingebaut mit Adobe Firefly,dass du dort so wie Collagen machen kannst.Also dass du beispielsweise, du hast wirklich ein Hochzeitsshooting,hast ein Bild gemacht und im Hintergrund ist halt irgendwie dein,der zweite Fotograf oder so aus Versehen irgendwie noch drin.Und jetzt kannst du halt in Photoshop und Lightroom den einfach markieren unddann gibt es eben einen Bildgenerator, der dann diese Markierung erkennt undeinfach diese Person entfernt. Ja, und man sieht es danach nicht mehr.Das hätte vorher halt, weiß ich nicht, Stunden gedauert und jetzt ist es eine Minute.Und du hast ja auch dann wieder verschiedene Variationen. Wenn die eine Generierungdir nicht gut gefällt, dann kannst du einfach sagen, Photoshop, mach bitte nochmal.Und dann kommt halt irgendwas, wo du sagst, hey, das sieht wirklich gut aus.Das heißt, es ersetzt ja auch nicht nur, also man muss es ja auch nicht nurdafür verwenden, komplett neue Bilder zu machen, sondern du kannst es ja auchdafür nehmen, Bilder, die du gemacht hast, eben zu erweitern, also weiterzugeben.So, das ist schon sehr, sehr spannend.
Benjamin Herdeanu
41:22
Absolut, ja. Gerade bei Adobe war ja jetzt auch die Geschichte,dass sie ihre Nutzungsbedingungen geändert haben.
Friedemann Wulff-Woesten
41:28
Ja, ja. Oh ja, großes Hallo.
Benjamin Herdeanu
41:33
Großes Trara. Ich glaube, sie haben sogar wieder zurückgerudert.
Friedemann Wulff-Woesten
41:37
Ich glaube, sie wollten, also sie hatten, glaube ich, ich habe es jetzt nichtso ganz verfolgt, aber ich hatte mitbekommen, dass sie gesagt haben, in den Terms of Service,dass Benutzer-Content halt verwendet wird, um AI-Modelle zu generieren.Ich glaube, das war der große Aufreger und dass dann halt Leute gesagt haben,ja, aber wir bezahlen, wir sind doch die Kunden, wir bezahlen doch für Photoshop.Wieso werden jetzt unsere Daten hier verwendet?Und ich meine, Adobe hat jetzt ganz, gestern oder so haben sie gesagt,kann vielleicht dazu sagen, wir nehmen das auf am 14.6., also Mitte Juni 2024,das ist ja alles sehr schnelllebig in dem Bereich, aber ich meine,Adobe hätte jetzt wieder ein bisschen zurückgerodert und haben gesagt,nein, also wir machen das doch nicht und bla und so. Aber ja, definitiv.
Benjamin Herdeanu
42:29
Ich glaube, es war sogar ein bisschen schärfer formuliert. Genau,die Idee dahinter ist eigentlich ziemlich klar.Adobe will halt die Daten nutzen, um halt die nächste Generation Modelle zutrainieren, die dann halt noch mehr können,die das noch besser können, weil ja, ich meine, man nutzt das Tool vielleichtund es funktioniert schon recht gut, aber dann sind da irgendwelche Detailsund wenn dann halt Designer da manuell reingehen,noch Dinge anpassen und verbessern, dann ist das natürlich,wenn man es in der Masse hat, Gold wert mittlerweile.
Friedemann Wulff-Woesten
43:04
Ich meine, aus der Sicht von Adobe kann ich das natürlich nachvollziehen,dass sie das so machen, aber aus der Nutzersicht oder aus der,ich sag mal jetzt, auch wenn du jetzt ein kommerzieller Fotograf bist und duhast jetzt vielleicht jemandem auch zugesichert, dass du eben diese Daten nicht weitergibst.
Benjamin Herdeanu
43:20
Absolut, ja.
Friedemann Wulff-Woesten
43:20
Und du hast NDAs, dann wirst du natürlich nicht, dass deine Daten,also Facebook zum Beispiel, also Meta, da gibt es ja auch so einen Aufreger,dass die jetzt quasi die Daten von, ich glaube, Facebook,Instagram und so weiter verwenden möchten, auch für ihr Training von ihren Modellen.Facebook ist ja, oder Meta ist in diesem Bereich ja auch aktiv,mit zum Beispiel Lama, diesem offenen LLM beispielsweise.Und da hat Meta das jetzt so gemacht, dass sie gesagt haben,Ja, also wir per Default nehmen wir erstmal alle Daten von allen zum Trainingund du musst ganz explizit sagen, wenn du das nicht möchtest, also so ein Opt-out,was natürlich eigentlich aus meiner Sicht nicht geht.Also es sollte eigentlich eher ein Opt-in sein.Dann ist natürlich die Frage, wie viele Leute sagen da überhaupt noch ja.Aber gerade auch bei Adobe, wo du ja wirklich, das ist ja Photoshop und Lightroomsind ja Bezahlservice, es ist ja jetzt nicht so, dass du das kostenlos bekommst.Da finde ich es nochmal krasser, dass sie dann sagen, ach übrigens,eure jetzt Kundenaufträge, die werden jetzt hier verwendet, wenn sie in der Creative Cloud sind.Das kann ich total nachvollziehen, dass da eine große Ablehnung dagegen ist.Denn man könnte es ja theoretisch auch anders machen.Also Apple beispielsweise jetzt mit diesem Apple Intelligence,was ja jetzt vorgestellt wurde, hat ja so ein bisschen so einen anderen Weg, wo sie sagen,es gibt einen persönlichen Kontext auf dem Gerät, aber dieser bleibt halt aufdem Gerät und wir senden quasi immer nur gewisse Prompts an Modelle und machenerstmal die Sachen auf dem Gerät, wenn es dann geht.Aber wenn es nicht geht, dann senden wir eben nur das, was wirklich notwendigist, zum Beispiel jetzt einen Text zusammenfassen, dann senden wir halt nurdiesen Text, aber wir senden nie diesen Kontext.Das heißt, das könnte ja Adobe theoretisch auch machen, dass sie sagen,okay, wir nehmen halt gewisse Trainingsdaten für die Modelle an sich,aber wir halten diesen kundenspezifischen Inhalt daraus.Also wir nehmen jetzt eben nicht die Fotos, die jetzt jemand in Photoshop bearbeitetfür das Training selber.Also das ist so ein bisschen, da gibt es ja Abstufungen, finde ich.
Benjamin Herdeanu
45:41
Obwohl es so von den Unternehmen her da schon Unterschiede gibt.Also Adobe ist viel mehr davon abhängig, dass sie halt ein gutes Produkt in dem Kontext haben. Ja.Das heißt, für die sind die Daten nochmal wertvoller.Apple hat immer auch einen großen Fokus auf Datenschutz und Privacy, Sicherheit. Klar.Daher sind die da generell halt vorsichtiger.Genau. Und ich meine, Adobe muss, was heißt muss, ich glaube,kriegt schon ordentlich Druck.Und das, was sie halt auszeichnen kann im Gegenzug zur Konkurrenz,die halt aufkommen wird oder aufkommt,ist halt, dass sie wirklich gute Daten kriegen kann von professionellen ja.
Friedemann Wulff-Woesten
46:37
Ja, ja oder wahrscheinlich auch hoch aufgelöst, also klar wenn du halt,ja, ja es ist natürlich ein,also ich hab mir diese Funktion mal angeguckt in Photoshop es ist halt so,du kannst wirklich da eben Sachen markieren und dann kriegst du ja auch verschiedeneVersionen und dann kannst du ja auch sagen, diese Version war am besten und so, ich meine Klar,dass das in Training irgendwie reingeht, kann man sich ja vorstellen.Aber offensichtlich ist es für Leute wichtig, auch da quasi eine gewisse,ich weiß nicht, ob das Wort richtig ist, Souveränität oder zumindest das, was Apple ja versucht.Bei Apple ist es ja so, Apple hat ja jetzt, bei der WWDC ist jetzt diese Wochegerade gewesen, ganz aktuell, hat Apple ja versucht ...Dass, wir wissen noch nicht, wie es dann am Ende wirklich auch aussehen wirdin iOS, aber klar zu machen, hey, du kannst ChatGPT verwenden,aber du musst deine Zustimmung geben.Das heißt, das iPhone geht nicht einfach zu OpenAI und schickt die Daten dahin,sondern nur mit deiner expliziten Bestätigung.Und das könnte ja Adobe theoretisch auch machen, dass sie sagen,aber es ist die Frage, ob das gewollt ist von der Strategie.Und ich glaube, das ist genau das, was ja viele Leute auch kritisiert haben,dass sie sagen, wir haben noch nicht mal diese Möglichkeit zu sagen,nein, wir möchten das nicht.
Benjamin Herdeanu
48:02
Ja, es wird schon cool. Also die neuen Apple Features, zumindest das, was angekündigt ist.Man muss immer gucken, wie es dann in der Realität wird, wie gut es funktioniert.Aber dass Siri mal ein Update bekommt, ist jetzt auch nicht das Schlimmste.
Friedemann Wulff-Woesten
48:17
Ja, das ist lange überfällig.
Benjamin Herdeanu
48:20
Und tatsächlich die Option zu haben, wie auch immer das dann intern entschiedenwird, oder automatisiert entschieden wird, dass man halt Fragen direkt an OpenAI weiterleiten kann,halt mit der Möglichkeit zu sagen, nee, möchte ich nicht.
Friedemann Wulff-Woesten
48:37
Ich möchte es nur on device.
Benjamin Herdeanu
48:37
Das finde ich eigentlich ganz elegant. Ich finde auch, dass diese Layer.
Friedemann Wulff-Woesten
48:42
Dass du sozusagen sagst, also es gibt bei Apple da ja, wie ich das verstandenhabe, drei Layer. Es gibt einmal dieses On-Device, da braucht man offensichtlich natürlich,ein Gerät, was genügend Systemvoraussetzungen hat.Also ich glaube, es ist auch erst das iPhone 15 Pro, weil da eben erst 8 GB.Grafikspeicher auch, das läuft ja dann auf der GPU, dieses LLM mit dabei ist.Die Macs gehen ab der M1, M2, M3, M4.Macht auch total Sinn, finde ich so, von den Hardware-Specs erstmal.Genau, und dann haben sie eben den Layer 1 komplett auf Device,dann haben sie den in Layer 2, ihr Private Cloud Compute, wo sie irgendwie,wo Apple selber Cloud-Anbieter ist und da halt Apple Silicon Server hat,die diese Modelle betreiben. Da muss man jetzt auch nochmal gucken.Apple sagt da, sie speichern da nichts und quasi lassen da nur die Modelle laufen.Wäre toll, wenn das wirklich so wäre. Und wenn sie da sozusagen sicherstellen,dass sie da sozusagen dann diese Daten eben zum Beispiel nicht fürs Training verwenden.Also, dass die Daten, die über Apples Server gehen, eben wirklich dann deineDaten bleiben, wie auch immer man das dann technisch implementiert.Und die letzte Stufe wäre dann eben, wir gehen per API raus an einen externen Provider wie OpenAI.Sie meinten ja auch vielleicht dann irgendwann Gemini von Google.Also ich bin natürlich total interessiert an diesem On-Device.Das ist für mich natürlich, das wäre für mich super cool.So ein bisschen, was ich vorhin mit Stable Diffusion ja auch gesagt habe,da habe ich ja auch rumgespielt.Wenn ich weiß, okay, ich kann gewisse Sachen wie Text zusammenfassen auf demGerät selber machen, Und das wäre natürlich super gut, denn man ist nicht als Internet angewiesen.Ich weiß, okay, das geht halt nicht zu irgendeinem Server.Das fände ich halt super schön, wenn Tools noch mehr lokal nutzbar sind.
Benjamin Herdeanu
50:33
Und wenn sie gut funktionieren.
Friedemann Wulff-Woesten
50:35
Wenn sie gut funktionieren, dann hast du weniger Latenz. Dass das natürlichheißt, dass der Computer ein bisschen mehr Ressourcen braucht, das ist klar.Genau, aber ja, ich finde, das ist eine sehr, sehr spannende Diskussion.Auch jetzt Microsoft hat ja dieses Recall-Feature rausgebracht,was irgendwie ein Screenshot macht von allem.Wo man dann auch so, wir jetzt aus der Informationssicherheit denken,um Gottes Willen, dann macht das ja Fotos von irgendwelchen Two-Factor-Authentication-QR-Codesund Passwörter, also um Gottes Willen, ja, bloß weg damit.Also ich glaube, da ist wahrscheinlich, werden ja auch die Grenzen gerade nochso ein bisschen ausgetestet, was kann man machen und was ist irgendwie,ich habe da das Gefühl, dass Microsoft da definitiv ein bisschen mehr,Elefant im Porzellanladen ist, als jetzt vielleicht Apple, die da wirklich sehrbedacht vorgehen wahrscheinlich auch, wie du ja gesagt hast,ist halt immer die Frage, was die Firmen dann am Ende auch als Ziel verfolgen.Ich glaube schon, dass Adobe zum Beispiel jetzt vor allem dranbleiben will,dass sie sich nicht die Butter vom Brot nehmen lassen.Ja, Apple wiederum ist eher so auf Privatsphäre bedacht.
Benjamin Herdeanu
51:47
Aber es ist schon spannend, oder? Ich finde es schon spannend,dass Apple sozusagen die Kooperation mit OpenAI eingeht, wo Microsoft,drinsteckt. Was schon interessant ist, also zeigt auch, ja, okay,es muss ja einen strategischen Vorteil haben, sich die Lösung sozusagen einzukaufen,weil Apple typischerweise ja auch viel selbst macht.
Friedemann Wulff-Woesten
52:15
Ich meine, das ist ja auch genau diese interessante Sache. Sie machen ja Sachenon device, sie haben selber Server.Offensichtlich sind ihre Modelle aber nicht so gut wie GPT-4.0 in dem Fall.Und ich glaube, Apple meinte ja dann, ja, wir möchten aber gerne auch,wir möchten das Beste auch anbieten können. und jetzt, gestern habe ich gelesenirgendwie, dass sogar jetzt erstmal für den ersten Deal überhaupt gar kein Geld fließt.Also dass weder OpenAI Apple was bezahlt, noch Apple OpenAI.Also dass die jetzt erstmal quasi das einfach so als Kooperation haben und dannwahrscheinlich irgendwann mal gucken, wie sie es machen.Aber es ist jetzt nicht so, dass Apple irgendwie OpenAI jetzt erstmal viel zahlt,sondern es ist erstmal so ein, wahrscheinlich so ein Abtesten.Denn klar, Apple gibt natürlich OpenAI damit nochmal einen Push.Wenn jedes iPhone das drin hat, dann werden es natürlich auch mehr Leute nutzen. Andererseits,Klar, kosten die API-Requests am Ende des Tages natürlich Open-Air-Geld.Ich weiß es nicht, aber du hast vollkommen recht. Es ist sehr,sehr spannend, dass nun gerade die beiden sich zusammengefunden haben.Wird man sehen, wie das ausgeht. Also vielleicht noch mal so ein bisschen bezüglichKritik auch an diesen Sachen.Was ich gesehen habe, das fand ich sehr, sehr spannend. Das war so ein Post auf Mastodon.Da hat jemand geschrieben, I want AI to do my laundry and dishes,So that I can do my art and writing.Not for AI to do my art and writing, so that I can do laundry and dishes.Also übersetzt, ich würde gerne, dass eine AI für mich eben meine Wäsche machtund das Geschirr abspült und nicht eben meine Kunst und meine schriftstellerischeTätigkeit oder die Sachen,die ich schreibe. Ich will, dass es umgekehrt ist.Ich will mir quasi von der künstlichen Intelligenz nicht die Sachen wie jetztFotografie, Kunst wegnehmen lassen, sondern ich will eigentlich,dass die eben die Sachen macht, die ich nicht gerne mag, wie zum Beispiel ebenWäsche machen oder aufräumen oder so.Also das ist natürlich eine sehr spannende Perspektive in dem Sinne,dass ich glaube nicht, dass sich Menschen den Spaß am Fotografieren verderbenlassen werden von irgendeiner künstlichen Intelligenz.Ich glaube, wenn Menschen das cool finden zu fotografieren, dann werden sie fotografieren.Wenn Menschen cool das finden zu musizieren, werden sie musizieren.Auch wenn es ja jetzt da auch schon Tools gibt, die die Songs selber schreibenund kombinieren. Aber ich glaube nicht, dass das.Ich glaube nicht, dass ein Bildgenerator das Fotografieren kaputt macht.Also persönlich denke ich, also was ich jetzt zum Beispiel sehe,ist, dass Analogfotografie auch wieder so ein Revival erlebt.Jetzt haben Leute wieder Instax-Kameras und haben so Sofortbildfilme,wo man sich auch fragt, wieso nutzen Leute noch Film?Ja, es gibt doch Digitalfotografie. Ja, weil Leute das halt cool finden.Und ich denke, dass, also ich denke nicht, dass man sich die Kunst oder denSpaß an Kunst oder Fotografie von AI AI wegnehmen lassen muss.Man kann halt einfach für sich sagen, ja, ich mache das halt trotzdem noch selber.Die Frage ist natürlich, was das bedeutet für Leute, die jetzt zum BeispielStockfotografie gemacht haben.Das ist natürlich schon problematisch, denn natürlich könnte man jetzt ebeneinfach sagen, ich nehme Adobe Firefly und lasse mir halt einen Himmel generieren in Photoshop,den ich vielleicht einfügen wollte, wo ich vorher eben Lizenzkosten hatte,um ein Bild zu verwenden.Das denke ich schon. Was denkst du darüber?Geht ja auch so ein bisschen in die Richtung AI nimmt uns die Jobs weg.
Benjamin Herdeanu
55:57
Ja, hat viele Facetten, die Frage.Das denke ich generell. Also ich meine, Kunst und sich kreativ betätigen inder Freizeit als Zeitvertreib,ich glaube, das ist so wie du sagst. Also das werden Leute machen und das ist okay.Damit Geld zu verdienen, ich denke, der Bereich wird sich ändern.Wird sich zwangsweise ändern. Aber das muss auch nichts Schlimmes sein.Weil, ja, wenn man sich die technologische Entwicklung anschaut,es gab immer Veränderungen und Jobs haben sich halt angepasst.Also früher hat man Buchhaltung auch auf dem Papier gemacht und Zahlen zusammengerechnet.Und jetzt nutzt man halt vor allem Excel.Und genau, also dementsprechend, gut, das ist halt eher die Kategorie,wahrscheinlich nicht ganz so spannende und erfüllende Tätigkeit.Aber trotzdem, ich denke, es wird einfach...Es werden neue Jobs kommen, bei denen man dann halt lernt, diese Tools zu nutzenund im Prinzip diese Kombination aus Mensch und Maschine ist,denke ich, sehr mächtig.Die Frage ist natürlich, also zumindest kurzfristig, mittelfristig,langfristig ist wahrscheinlich alles offener.Da ist einfach die Unsicherheit enorm groß, weil wir einfach nicht genau wissen, was kommen wird. Ja.Und ich finde es so spannend, weil wenn man vor 10 Jahren oder 20 Jahren gefragt hätte,welche Jobs werden wir automatisieren, dann hätten wir wahrscheinlich gesagtso, ja, repetitive handwerkliche Tätigkeiten, die als erstes,die werden wegautomatisiert.Und jetzt ist es so, oh Gott, erstmal die kreativen Sachen.
Friedemann Wulff-Woesten
58:02
Eigentlich wird alles andere wegautomatisiert.
Benjamin Herdeanu
58:04
Genau, genau das Gegenteil. Die Handwerker freuen sich. Kreative Sachen,Berater, intellektuelle Arbeit,die Art von Arbeit ist schon, ja, sagen wir, die wird sich kurzfristig sehrstark verändern, da bin ich ziemlich sicher.Und ja, mittellangfristig schon die Frage, gibt es das dann noch?Und was gibt es stattdessen? Also das ist ja auch das Spannende.Ich meine, dieses ganze Feld, zum Beispiel die AI-Engineers,was auch immer, das sind ja neue Jobs.Und auch so wird es in diesen einzelnen Bereichen dann neue Jobs geben oderneue Möglichkeiten, sich auch kreativ zu betätigen.Und ja, das ist halt so das Typische. Es gibt einfach Veränderung.
Friedemann Wulff-Woesten
58:54
Ja, klar. Natürlich. Also ich glaube auch, dass zum Beispiel,was mir so einfällt, ist halt so dieses, was ich auch selber natürlich gerne nutze.Auch gerade jetzt bei Podcast-Produktion zum Beispiel ist einerseits Transkription,dass man sozusagen ein Transkript hat, dass man sozusagen einfach das Audiotranskribieren kann, damit man dann das Transkript beispielsweise nehmen kann,um da eine Zusammenfassung zu machen von dem Text. Das ist super.Das ist für mich zum Beispiel jetzt, gut, das ist jetzt auch eher ein privatesProjekt, aber ich kann mir jetzt für ein privates Projekt, also wenn ich dieseTours nicht hätte, dann gäbe es halt kein Transkript von dem Podcast.Und dann würde ich auch den Podcast nicht einfach mit einem Klick zusammenfassen können.Das wäre so viel Zeit, dass ich das wahrscheinlich einfach gar nicht machen würde.Aber dadurch, dass es diese Tours gibt, kann ich halt sagen,na gut, dann lasse ich das halt transkribieren und dann lasse ich mir das haltschnell zusammenfassen.Und ich glaube da, wenn ich das jetzt weiterdenke auf Jobs, die sozusagen früherwirklich von Hand transkribieren mussten in ihrem Job, das ist ja super.Da nimmst du jetzt Vispa, wirfst die Audiodatei rein, das wird transkribiertund dann hast du da ja wirklich einen Produktivitätsgewinn, ohne jetzt diesenganzen Marketing-Kram mit AI wird alles verändern und so.Also solche kleinen Dinge wie, ich kann einfach Sachen super transkribierenoder Texte zusammenfassen, das finde ich ja schon super hilfreich.Und ich meine, das wird dann vor allem, könnte ich mir jetzt vorstellen,in gewissen Berufsgruppen dazu führen, dass du einfach weniger mit Papierkram arbeitest.Beschäftigt bist und dich dann eben mehr jetzt vielleicht, wenn du mit Menschenzu tun hast, wie zum Beispiel als Arzt beispielsweise, dass du dich dann ebenmehr mit den Menschen beschäftigen kannst, was ja eigentlich dein Job ist.Das wäre die positive, der positive Bias, dass du sagst, okay,das, was eigentlich für dich wichtig ist, nämlich mit Menschen dich zu beschäftigenund zu unterhalten, das hat dann mehr Zeit, dem kannst du mehr Zeit einräumenund die Sachen, die du eigentlich nur,so overhead, papierkrammäßig machen musst, wie zum Beispiel irgendwie noch einenBericht schreiben, das kannst du halt automatisieren.Das fände ich persönlich richtig cool, wo ich sagen würde, da hat es wirklich was gebracht.Ob das wirklich so kommt, ist die Frage.
Benjamin Herdeanu
1:01:11
Das ist zumindest die Hoffnung, dass es so kommt, weil da halt viel auch Regulatorik reinkommt.
Friedemann Wulff-Woesten
1:01:18
Genau, darf man das dann mit den Daten überhaupt machen?Oder muss man, weil es wird sich nicht jeder Arzt, jetzt sage ich mal,irgendwie Nvidia-GPUs irgendwo hinstellen und irgendwelche lokalen Modelle da haben.Also gut, muss man dann natürlich, da ist jetzt wieder so ein bisschen unsereSicherheitsperspektive drauf.Was darf man überhaupt und welche Daten haben welchen Schutzbedarf?Aber grundsätzlich würde ich jetzt sagen, finde ich jetzt diese Textfunktion,dieses Zusammenfassen,dass man mit Text einfach besser arbeiten kann. Das finde ich zum Beispiel schon wirklich cool.
Benjamin Herdeanu
1:01:56
Ja, also wenn die technologischen Möglichkeiten da sind, das ist auf jeden Falldie notwendige Bedingung, die Grundvoraussetzung.Und was man dann daraus macht, das ist dann halt die Frage, wie man es nutzt und implementiert.Aber die Möglichkeiten der Optimierung von wirklich auch stumpfen,repetitiven Aufgaben beispielsweise, die ist auf jeden Fall da.Ja, und das ist, gut, das ist halt so das optimistische Weltbild,ne, also wir können nervige Sachen auch weg optimieren und dafür halt mehr Zeithaben für Kreatives oder für halt erfüllendere Jobs.Das ist so die große Hoffnung.Da muss man dann aber auch viel darüber nachdenken, ja okay,wie, durch diese ganzen Tools wird ja tatsächlich ein Mehrwert geschaffen.Es wird mehr produktiver, es wird mehr generiert, mehr auch wirtschaftlicher produziert.Ja, Erfolg generiert. Und da ist es halt, finde ich persönlich,schon gefährlich, wenn das dann halt bei einigen wenigen Organisationen konzentriert ist.
Friedemann Wulff-Woesten
1:03:12
Ja.
Benjamin Herdeanu
1:03:13
Und halt nicht verteilt wird und so.
Friedemann Wulff-Woesten
1:03:16
Das heißt so dieses, ne, also Bitgeneratoren, wie gesagt, es gibt ja StableDiffusion, meinte ich ja schon, ne, das kann man sich lokal generieren.Was ich gut finde, ist, dass es das jetzt auch bei Sprachmodellen langsam sichabzeichnet, also Lama 3 beispielsweise von interessanterweise Meta,also Facebook-Meta hat ja sozusagen seine,nicht alle Modelle, aber gerade die kleineren, die auf normalen Geräten auchlaufen, ja wirklich auch die Gewichte offengestellt.Das heißt, es gibt ja jetzt schon offene Sprachmodelle, die man selber laufenlassen kann, wo man sozusagen natürlich sich das auch selber nachbauen könnte.Das ist natürlich immer noch nicht Stand jetzt auf dem Level wie beispielsweiseChat-GPT mit GPT-4, klar.Klar, aber für solche,ich sag mal gerade, wir hatten gerade das Beispiel Text zusammenfassen,das sind ja jetzt Sachen, wo man jetzt nicht so super viel Weltwissen braucht,sondern wo die Aufgabe ein bisschen mehr abgegrenzt ist, da kann ich mir dasdurchaus vorstellen, dass man sowas dann auch einfach, wie zum Beispiel mit Apple Intelligence,auch selber einfach auf seinem Mac lokal betreiben kann.Und dann finde ich das okay. Dann kann man das wahrscheinlich vertreten.Dass nicht alle irgendwie ihre Unternehmensdaten bei Chachibiti reinkopieren,ist, denke ich, auch klar.Das ist ja, denke ich, auch nichts, was wir jetzt irgendwie allen empfehlen würden.Einfach alles zu chat mit ihr auf gar keinen fall der eindruck soll nicht entstehenwenn ihr mit vielleicht als als kleinen rausschmeißer noch eine lustige sachehabe ich noch gefunden und zwar gibt es einen auf reddit habe ich das gefundenich mache auch den link in die in die Shownotes. Ähm,Und zwar habe ich einen Zeitungsartikel gefunden, noch wirklich so hier schwarz-weiß, aus den 80er Jahren,nee, aus den 60er Jahren, sorry, 1966 gibt es eine Schlagzeile,dass Math Teachers Protest Against Calculator Use,also Mathematiklehrer protestieren gegen die Nutzung des Taschenrechners.Ja, weil da eben die Lehrer der Meinung waren, dass eben, ja,wenn Kinder eben Taschenrechner verwenden, dass sie dann eben nicht mehr rechnen können.Und ich glaube, das kann man auch übertragen mit, darf man den CheGPT im Unterricht verwenden?Ich weiß nicht, was würdest du dem entgegnen, den Lehrern aus den 60ern?
Benjamin Herdeanu
1:05:48
Ja, das ist schon witzig. Ich musste zuerst dran denken, ja,ich nutze meinen Logarithmus-Schieber auch täglich immer noch.Es ist gut, dass ich das Wissen habe und ich nutze es immer. Ja, es ist halt...Taschenrechner und drück Enter, übertrieben formuliert, aber so die einfachstenAufgaben waren halt so, ja okay, das ist keine Herausforderung mehr, das brauchen wir nicht.Stattdessen sich mal die Gedanken zu machen darüber,was können wir jetzt auf einmal für andere Aufgaben angehen,das ist doch eine extreme Chance,um halt Menschen zu unterrichten, andere Dinge, mächtigere Dinge zu lernen.Also beispielsweise, ja, wie komme ich denn auf diese Formeln?Wie kann ich die aufstellen und sozusagen diese viel mehr Zusammenhänge lernen und ….
Friedemann Wulff-Woesten
1:07:10
Denn das Ausrechnen am Ende der Formel ist ja gar nicht mehr der Hit.Darauf zu kommen und zu verstehen, was das ist, das ist ja eigentlich das,was man eigentlich vermitteln möchte, wahrscheinlich.
Benjamin Herdeanu
1:07:20
Wir sind auch einfach nicht gut darin, als Menschen viele kleinschrittige Dinge ohne Fehler zu machen.Das trainieren wir, das hat auch einen Sinn und ist gut.Gleichzeitig könnte man auch einen neuen Raum an Möglichkeiten aufmachen undsagen, wie kommen wir zu den Formeln, wie kommen wir zu diesem Problem.Dann schmeißen wir die Maschine an. Das hat mein Professor immer gesagt.Wir machen den Computer an, lassen uns das ausrechnen und dann gucken wir unsan, was rauskommt. Und dann versuchen wir das zu interpretieren und zu verstehen.
Friedemann Wulff-Woesten
1:07:54
Und einzuordnen, genau.
Benjamin Herdeanu
1:07:55
Einordnen und damit kommen wir schnell auf neue Fragen.Und so die Art von Lernen, also sowas würde ich mir halt enorm wünschen.Auch in Bezug auf KI-Tools in der jetzigen lehre.Also nicht einfach nutzen, also ohne ein Verständnis davon zu haben,was geht, was geht nicht, was sollte man machen, was sollte man nicht machenund sich dann überlegen, mit dieser Technologie,Was für verrückte Möglichkeiten haben wir, dass Leute lernen?Also ich meine, es kann im Prinzip jeder alleine auch loslaufen und in verschiedeneRichtungen abdriften. Das geht so schnell.Also im positiven Sinne abdriften.Und dann sozusagen auch viel damit, viel lernen, mit dieser Flut an Informationen,mit der Flut an Möglichkeiten umzugehen und dann sich zu überlegen,ja, was können wir denn daraus Sinnvolles extrahieren?
Friedemann Wulff-Woesten
1:08:55
Das zu strukturieren irgendwie. Also ich glaube auch.Also man wird sicherlich nicht umhinkommen, irgendwie das einzuordnen.Denn ich meine, Schüler sind ja nicht blöd. Also ich wette, dass das Chachapitizumindest, gut, die Tours, die wir heute jetzt besprochen haben mit Journeyund Dali, das ist vielleicht ein bisschen speziell.Das sind jetzt Bildgeneratoren, aber Chachapiti ist, denke ich,bekannter noch und Schüler kennen das wahrscheinlich,wenn sie eben, wenn ihr Ziel jetzt ist, sich irgendwie schön auf die faule Hautzu legen und keine Hausaufgaben zu machen, dann werden sie hundertprozentigschon mal versucht haben, bei Chachapiti irgendwas einzugeben.Ich meine, das ist ja jetzt nicht so, dass das geheim ist.Und dann natürlich zu ignorieren, dass es Chat-GPT gibt, das ist ja auch kontraproduktiv.Also so zu tun, als gäbe es das nicht.Also es ist ja dann eher interessanter, Aufgaben vielleicht zu stellen,die Chat-GPT eben nicht lösen kann.Oder wo man sagen kann, ja, vielleicht, ihr könnt das zwar verwenden,aber versucht das eben selber für euch einzuordnen.Denn wir wissen ja beide, CheGPT ist definitiv eine fehlerfreie,das halluziniert manchmal irgendeinen Quatsch.Manchmal sagt es Sachen, die total gut sind, manchmal sagt es Sachen,die irgendwie gar nicht stimmen.
Benjamin Herdeanu
1:10:14
Wie Schüler.
Friedemann Wulff-Woesten
1:10:17
Also das einordnen zu können, das ist ja am Ende der springende Punkt.Und das ist ja auch das, was wir, wenn wir jetzt ...Die Sachen benutzen, ja, für uns auch immer machen müssen. Wir sind am Endeja dafür verantwortlich.Es kann sich ja keiner aus der Verantwortung ziehen und sagen,ja, ich hab jetzt hier aber den Text mit Chachapiti verpasst,hab das so rausgeschickt.Ja, da ist Chachapiti schuld. Natürlich nicht.Also natürlich stehst du immer auch dafür ein, was du dann an Texten verfasst.Selbst wenn du dafür Large-Language-Modelle gibst. Aber am Ende bist du in der Verantwortung.Das heißt, Schüler müssen natürlich lernen, auch zu erkennen,ich kann nicht einfach meine Hausaufgaben hier von CheGPT schreiben lassen,denn am Ende fällt das auf mich zurück, wenn CheGPT da irgendeinen Quatsch geschrieben hat.Also so gesehen, genau, vielleicht ist das auch einfach Medienkompetenz,bloß eben auf einer höheren, auf einer anderen Ebene.
Benjamin Herdeanu
1:11:09
Absolut, absolut. Und ich bin so überzeugt, dass Schülerinnen und Schüler dieTools wahrscheinlich besser nutzen können als manche Lehrer.Ja, klar. Und ich meine, dass viele auch wissen, wie sie es nutzen.Und das muss nicht das Schlechtste sein. Wir haben damals auch Wikipedia genutzt.Und Wikipedia war damals verschrien ohne Ende.
Friedemann Wulff-Woesten
1:11:35
Ich weiß noch, Wikipedia war bei uns gesperrt.
Benjamin Herdeanu
1:11:38
Ja, ja, genau. Und natürlich haben wir es nie genutzt.
Friedemann Wulff-Woesten
1:11:41
Genau, natürlich haben wir es nicht genutzt.
Benjamin Herdeanu
1:11:44
Und es wurde irgendwann immer weiter aufgeweicht.
Friedemann Wulff-Woesten
1:11:46
Ja. Ja.
Benjamin Herdeanu
1:11:49
Ja, ich denke auch, das ist eine ähnliche Situation hier.
Friedemann Wulff-Woesten
1:11:52
Ja. Ja, es hat mir wirklich Spaß gemacht. Wir könnten, glaube ich,noch ewig reden, aber ich denke, das ist ein gutes Schlusswort.Ja, ich möchte mich bei dir ganz herzlich bedanken für dein Bild,aber natürlich auch für deine Ideen.Genau, dann würde ich sagen, ja, bis zum nächsten Mal hier bei der Two-Photos-Show. Vielen Dank.
Benjamin Herdeanu
1:12:12
Danke dir. Mir hat es auch super Spaß gemacht. Vielen Dank für die Einladungund sehr gerne mal wieder. Gerne.
Friedemann Wulff-Woesten
1:12:18
Alles klar. Dann sage ich Tschüss und bis bald.
Benjamin Herdeanu
1:12:22
Tschüss.
Friedemann Wulff-Woesten
1:12:23
Ciao.
End
1:12:25
© © 2025 Friedemann Wulff-Woesten