Episode Transcript
Transcripts are displayed as originally observed. Some content, including advertisements may have changed.
Use Ctrl + F to search
0:22
Hallo und herzlich willkommen, hier ist die Freakshow und zwar die 275.
0:28
Freakshow. Das ist ganz schön viel eigentlich, ne? Also, was man so überlegt.
0:33
Gibt natürlich auch Leute, die haben schon tausende von Podcastsendungen,
0:36
aber die sind ja alle nicht so lang. Und irgendjemand hat ausgerechnet, dass wir mit allen Freakshows bis zu 274
0:44
insgesamt 998,5 Stunden gesendet haben.
0:52
In einer anderthalb Stunde, um 21.30 Uhr, haben wir 1000 Stunden voll und ich
0:58
habe keinen Shampoos kaltgestellt. So sieht das aus.
1:03
Also Leute, so gut vorbereitet sind wir hier.
1:06
Hallo, ich bin's Tim und heute haben wir eine kleine Runde. Roddy ist natürlich da. Hallo Roddy.
1:11
Ja, guten Abend.
1:12
Ralf ist unpässlich, kann man sagen, also kann ich, aber dafür haben wir Dom
1:20
dabei, live zugeschaltet über das Internet.
1:24
Guten Abend. In Bild und Ton hier.
1:27
Als wärst du ein Teil dieser Runde.
1:31
Ralf aus Berlin, über München, außerhalb.
1:35
Und wir haben alles aufgefahren und ich bin ein bisschen stolz,
1:39
dass gerade alles so richtig geil funktioniert.
1:42
Jetzt haben wir so alle Features, die so in der letzten Zeit immer in der Diskussion waren.
1:48
Noch ist die Sendung nicht zu Ende.
1:50
Und noch hat die noch nicht richtig angefangen, weil bei den letzten Malen,
1:54
die hat ja auch immer so gestartet und dann ist irgendeine Technik mit mir in die Hose gegangen.
1:59
Das Video ist ausgefallen, der Ton war weg, sonst irgendwas, das geht gleich weiter.
2:05
Knock on wood, dieses Mal wird alles Suppi.
2:07
Das ist richtig, ja genau, jetzt gucke ich gerade mal, steht da Ton ein oder aus?
2:13
Jetzt ist das richtig gut. Gut, dass du das erwähnt hast, ich habe gleich noch ein Setting gemacht.
2:21
Ja, nee, aber das stimmt doch nicht.
2:24
Du hast jetzt gleich ein Setting gemacht und ich höre dich nicht mehr gescheit. Was?
2:28
Du hörst mich jetzt nicht mehr?
2:28
Du hast mir jetzt ein Setting angemacht, jetzt bist du wie aus der Dose. Ach echt?
2:32
Aber es ist doch genau genau das Setting, was ich einschalte, damit das nicht so ist.
2:36
Achso.
2:37
Warte mal, jetzt bin ich aber ein bisschen...
2:38
Jetzt bist du wieder besser.
2:41
Jetzt bin ich besser?
2:43
Nee.
2:43
Jetzt bin ich schlechter?
2:45
Ja.
2:46
Und jetzt bin ich besser? Wenn ich es ausmache, ist es...
2:49
Jetzt habe ich den besseren Ton.
2:51
Das ist aber jetzt genau andersrum.
2:52
Aber es war so ein bisschen so ein Übergang. Es war kein digitales Feld.
2:56
Keine digitale Welt.
2:58
Du hast den Knopf gedrückt und dann wurde es langsam wieder besser.
3:00
Ja, ist so schön. ich lasse das jetzt so. Aber dafür gibt es Ton auf dem Klo.
3:07
Das hilft mir wenig.
3:09
Das hilft dir jetzt wenig, aber fühle einfach mit uns.
3:13
Also wir können jetzt hier auch aufs Klo gehen und nach wie vor der Sendung lauschen.
3:19
Das war immer so die Disruption schlechthin, dass man bei solchen Toilet Breaks
3:23
einfach den Faden verloren hat. Das könnte der Grund sein, warum hier manchmal einfach alles so hin und her
3:28
und kreuz und quer geht und so.
3:30
Daran liegt es.
3:31
Klare Analyse.
4:01
Mal so.
4:03
Nö, es war super. Hat gut geklappt und der gute Ulf war echt viel witziger, als ich erwartet hatte.
4:11
Der hatte so einen schönen, trockenen Humor, also das fand ich wirklich gut.
4:15
Ja, ich war auch ganz zufrieden mit der Dynamik.
4:18
Also du wirst das ja als Podcast-Folge auch raushauen, ne?
4:21
Ja, na klar. Ist alles aufgenommen worden, hat funktioniert und ja,
4:25
muss nochmal in den Schnitt und dann wird das vermutlich sogar noch diese Woche
4:30
doch mit Sicherheit morgen veröffentlicht werden,
4:35
sollte sich da nicht noch irgendwas in den Weg stellen.
4:37
Ja, aber das ist gut und ich will auch ohnehin mehr on stage sein, jetzt in diesem Jahr.
4:44
Da wird noch so einiges passieren. Mal gucken, ob wir das auch mit der Freakshow hinbekommen.
4:49
Also, wenn die Sendung rauskommt, da Raumzeit mit dem guten Ulf, dann hört ihr euch an.
4:55
Das ist echt, da kann man mal eine Hörempfehlung aussprechen.
4:59
Das hat sehr viel Spaß gemacht. Ihr habt zwar dann leider nicht das Planetariumsbild dabei, das,
5:08
fand ich war dieses Mal aber auch ein bisschen gedämpfter als die erste Variante.
5:15
Du hattest da ja schon mal was gemacht und da hatten die deutlich mehr Zip Zap gemacht.
5:20
Ja, da war mehr Zip Zap. Das hat zwei Gründe. Der erste ist,
5:23
es gab da irgendeinen internen Abstimmungsfehler, sodass eine andere Person
5:29
davon ausging, das zu fahren.
5:34
Und außerdem hat halt das Thema nicht ganz so viel Material hergegeben wie jetzt
5:39
diese Bodenteleskope, weil die ESO,
5:42
dieses European Southern Observatory, was diese Teleskope macht, das hat halt...
5:52
Das hat halt schon sehr viel von diesem 180 Grad Videokram geschossen für Planetarien.
5:59
Und darauf konnte man dann halt zugreifen und dementsprechend gab es halt viel.
6:07
Ja, genau. Aber das ist tatsächlich jetzt ein Punkt, auf den ich jetzt nochmal kommen wollte.
6:15
Und zwar, ich habe das auch hier schon mal, glaube ich, schon mal angesprochen.
6:20
Aber jetzt gerade wegen dieser Live-Geschichte und speziell auch Raumzeit,
6:25
aber im Prinzip wäre es auch etwas für die Freakshow, was Podcast und Live-Podcast
6:32
auf eine interessante Weise ergänzen könnte,
6:34
wo es aber ein spezifisches Problem gibt.
6:36
Und das ist eben visuelle Begleitung.
6:41
Also ich mache ja keine Videopodcasts und mache kein Gesicht in die Fresse halten,
6:47
YouTube-Channel und dieser ganze Selfie-TikTok-Kram und so weiter,
6:51
dafür bin ich zu alt und das war einfach noch nie mein Ding.
6:56
Ich bin dafür nicht zu alt, natürlich bin ich völlig geeignet dafür,
7:00
aber ich will halt, also wenn man sozusagen Leuten einen weiteren.
7:10
Kommunikationskanal anbietet, den sie dann konsumieren sollen und dann einen
7:16
weiteren Sinn quasi in Beschlag nimmt, so ein Ressourcen-Acquiring,
7:22
betreibt, dann muss da auch Mehrwert kommen.
7:26
Das hasse ich halt immer so an diesen, mach mal heute YouTube an,
7:30
so, dann ist erstmal bla bla bla, Quatsch Quatsch Quatsch, ich rede jetzt mal über irgendwas,
7:36
währenddessen schaut ihr doch bitte Bitte diese 1.000.000 3-Sekunden-Stock-Videoclips,
7:42
die ich in meinem Standard-Abo mit drin habe und die ich einfach mit Dreck und
7:46
Drop aus irgendeinem Archiv raussuche und meine AI,
7:48
da muss ich nur drei Suchworte eingeben und dann habe ich schon irgendwas.
7:52
Und ich sehe immer diese selbe düsselige Stockfoto-Imagerie,
7:56
die überhaupt nichts damit zu tun hat. Das ist im Prinzip so die kolossale Fortführung von so Tagesschau berichtet
8:03
über Arbeitsamtzahlen. Jeden Monat kommen so die Zahlen vom Arbeitsamt raus und was sehen wir?
8:10
Das Arbeitsamt in Recklinghausen schwenkt irgendwie Leute, die irgendwie arbeiten,
8:16
Leute, die nicht arbeiten, Leute, die irgendwo in einer Warteschlange stehen,
8:20
immer dieselbe Footage, immer das gleiche, weil es gibt visuell nichts zu berichten.
8:24
Es ist einfach nichts da, kein Fleisch.
8:29
Es gäbe Fleisch, aber das machen die da nicht ran.
8:32
Ein paar schöne Grafiken, ein paar Kurven könnte man bei dem Thema durchaus bringen.
8:37
Ja, das kommt auch irgendwann, aber das hält halt nur für fünf Sekunden.
8:41
Du kannst nicht 30 Sekunden lang diesen ganzen Bericht machen,
8:44
wie sich das jetzt entwickelt hat, sondern du musst immer irgendwas zeigen.
8:47
Also zeigst du immer das Gleiche.
8:50
Und jetzt ist es spannend und du hast eine Idee oder was? Du machst mich ja ganz kirre.
8:54
Ich habe immer Ideen. Das ist das für die Frage.
8:57
Eine Umsetzung, meine ich halt. Ideen sind...
8:59
Naja, also im Falle von Raumzeit on Stage, das ist jetzt das dritte Mal,
9:04
dass das stattgefunden hat. Und bei all drei Malen gab es diese visuelle Begleitung. Also zweimal habe ich
9:11
es in Berlin gemacht, einmal habe ich es in Darmstadt gemacht.
9:13
Ah, okay.
9:14
Und das waren dann Gott sei Dank auch mal ganz mehr oder weniger dankbare Themen.
9:19
Aber das eigentliche Problem ist, wenn ich jetzt sozusagen losziehe und sage,
9:23
ich suche mir jetzt irgendwo eine Bühne und mache Raumzeit live,
9:26
was ich durchaus vorhabe auch, dann möchte ich gerne diese visuelle Begleitung
9:31
haben, weil das ist einfach für Live-Teilnehmer, Du hast es ja schon angesprochen, das ist ganz nett.
9:36
Also du redest über das Gymnasium in Greiz, wo er aufgezogen ist und dann hast du davon ein Foto.
9:42
Und dann redest du über das Max-Planck-Institut in Stuttgart und dann hast du
9:46
da ein Bild und dann siehst du den Campus und bla bla bla.
9:49
Und dann redest du über das und dieses und diese Rakete und dieses Modul und
9:52
diese Raumstation und dann hast du halt einfach Imagery.
9:55
Das ist natürlich jetzt im Planetarium eine besondere Herausforderung,
10:00
also in dem Planetarium ist es jetzt gerade noch eine besondere Herausforderung,
10:04
weil sie parallel derzeit die 180 Grad Projektionen und dann noch zusätzlich Beamer haben.
10:11
Das heißt, der ganze 16 zu 9 Web-Content kam sozusagen von separaten Beamern.
10:16
Das ist nicht eine Software, in der das so eingeblendet wird.
10:21
Es gibt derzeit noch keine Möglichkeit, sozusagen non-planetary Content einfach
10:27
so in dieselbe Produktion reinzukriegen.
10:30
Das ist aber etwas, woran die gerade arbeiten. Also das ist sozusagen das Problem.
10:33
Okay, ich hatte mich schon gewundert, weil es nie 100% opak war,
10:38
sondern immer der Sternenhimmel durchschien.
10:41
Genau. Aber dass das jetzt so ein echtes mechanisches Problem war,
10:45
das habe ich nicht mitbekommen. Also das hat man nicht gesehen, sagen wir mal so.
10:50
Ja, das ist auch gut so, dass man das nicht gesehen hat. Das ist ja auch nicht
10:53
so wichtig. Aber am Ende war es halt ein Mehrwert. Und jetzt werde ich aber nicht,
10:59
Immer in Planetarien gehen, sondern halt auch mal einfach einen Ort suchen,
11:03
wo nur so eine normale 2D-Leinwand ist. Das reicht auch aus.
11:06
Das hatte ich damals, als ich das in Darmstadt gemacht habe, auch.
11:08
Jetzt die Frage, wie bespielst du das?
11:13
Und das Besondere daran ist ja, das ist ja jetzt kein fertig geschnittenes Video,
11:18
das findet ja live statt. Und du weißt zwar in etwa, auf welche Themen du eingehst, aber der Witz ist
11:24
ja, dass man mit der visuellen Begleitung dem Inhalt dynamisch folgt.
11:30
Das heißt, man macht ein neues Themenfeld auf, so bla bla bla und jetzt reden
11:35
wir mal über Science Fiction und dann, weißt du, kommt Douglas Adams ins Spiel
11:38
und das stand vorher auf keiner Liste und jetzt möchte ich halt in der Lage sein,
11:43
dem schnell zu folgen, ohne dass jetzt Leute einem dabei zuschauen,
11:49
wie man auf dem Webbrowser bei Google irgendwelche Suchbegriffe eingibt und
11:52
irgendwelche Bilder erklickt.
11:55
Das ist das, was ich auf keinen Fall möchte.
11:59
Was ich also suche, ist eine Software, die eigentlich so ein bisschen funktioniert,
12:07
wie so VJ-Software funktioniert. funktioniert.
12:10
Weil VJ-Software ist ja im Prinzip genau das.
12:13
Du hast dein Material, aus dem du so auswählst, Still Images,
12:18
Moving Images und dann fügst du die mehr oder weniger live in so eine Playlist ein.
12:26
Also entweder du hast es schon vorher so gebaut, wie das so abläuft oder du
12:30
ziehst da halt irgendwas rein. Ich muss zugeben, ich habe nicht viel Erfahrung mit VJ-Software.
12:34
Im Wesentlichen habe ich eigentlich nur anderen Leuten dabei zugeschaut, wie sie die benutzen.
12:38
Und natürlich Natürlich ist jetzt der Funktionsumfang von klassischer VJing-Software
12:43
für meine Zwecke auch völlig over the top, weil ich brauche jetzt nicht 30 Millionen
12:48
Filter und Rotationen und so weiter,
12:52
aber sagen wir mal so eine Software, die folgendes macht, die im Wesentlichen,
12:57
in irgendeiner Form so eine Input-Queue hat, wo man so Sachen reinwerfen kann,
13:02
sodass man zum Beispiel in einem Team mit zwei Leuten arbeiten kann.
13:05
Die eine Person reagiert quasi auf den Inhalt, folgt dem Inhalt,
13:11
merkt so, ah, okay, Douglas Adams, wir müssen jetzt was mit Douglas Adams,
13:14
ich muss mal ein Foto von Douglas Adams und dann habe ich ein Foto von Douglas
13:16
Adams und dann schmeiße ich das quasi für die VJ-ende Person in so eine Art Inbox.
13:24
Shared Folder, was auch immer, API, keine Ahnung, Irgendwas,
13:28
Webseite, Programm, Command Line, mir egal.
13:31
Also irgendwie werfe ich das da rein, sodass die Person die Visuals steuert,
13:37
der das sozusagen dann so als Input-Element aufpoppt und weiß, aha.
13:44
Das muss ich jetzt in irgendeiner Form verwenden.
13:47
Aber ich kann dann in dem Moment auch schnell durch ein paar Tastenkontrollen
13:51
so Sachen machen wie, was weiß ich, dass man das irgendwie kurz maskiert,
13:55
dass man da irgendwie eine Transition hat, wie das reinkommt.
13:59
So, ja, das ist nicht so plopp jetzt dieses Bild, next slide,
14:03
sondern dass man, was auch immer jetzt gerade angezeigt wird, sagt, okay,
14:06
jetzt kommt hier ein Foto und dass die Software es einem irgendwie einfach macht,
14:10
mit so Aspektratios dann kreativ umzugehen, damit das nicht alles zu bekloppt
14:15
aussieht oder dass man da was weiß ich, einen Ken Burns Effekt macht oder das
14:19
reinrauscht oder was auch immer.
14:21
Also in irgendeiner Form eine gute Kontrolle über die visuelle Präsentation,
14:26
aber halt als Output immer nur ein Screen, wo jetzt keinerlei User Interface auftaucht.
14:32
Also du arbeitest quasi an dem Rechner mit einem Hauptbildschirm,
14:35
da hast du sozusagen die Kontrolle und dein Output ist halt dann letzten Endes
14:40
der Beamer dieser Veranstaltung, wo das dann eben für alle Teilnehmer zu sehen ist.
14:44
Aber du kannst, du musst dann, du kannst also das trennen, dieses Recherchieren
14:48
und den Zugriff auf diese Fotowelten, Datenbanken, was auch immer vorbereitetes
14:53
Zeug oder so oder das Web und dann.
14:57
Also elegant und klar das dann sozusagen in diese Input-Queue geben,
15:01
sodass die Software dann auch so eingestellt werden kann, dass, was weiß ich,
15:05
wenn jetzt gerade die Playlist oder die Queue so weit abgearbeitet ist,
15:09
man zeigt halt sozusagen jetzt gerade das Letzte an, auch wenn man sich vielleicht
15:13
noch fünf Bilder mal vorbereitet hat und wenn man dann die durch ist und kommt
15:17
was rein, dann schaltet es auch automatisch darauf um, also irgendwie sowas.
15:19
Das ist eine Software, die ich suche und ich habe so ein bisschen die Vermutung,
15:24
es könnte etwas geben im VJ-Bereich, was sich vielleicht anpassen lässt,
15:29
also indem man im Wesentlichen seine Features, ganz viele Features erstmal ausschaltet,
15:35
damit es irgendwie einfach zu benutzen ist, um dann sowas zu machen.
15:41
Und wenn es sowas gäbe, dann wäre schon, das wäre schon die halbe Miete,
15:45
weil dann könnte man sich sozusagen so ein Content-Jockey-Podcast-VJ-Team aufbauen,
15:52
was das dann auf solchen Veranstaltungen machen kann.
15:55
Ich habe das Gefühl, du versuchst gerade eine neue Software-Kategorie loszutreten.
16:01
Aber die Ideen sind eigentlich alle offensichtlich, wenn man das Problem verstanden hat.
16:07
Also ich denke grundsätzlich, es gibt schon so Software auch.
16:10
Interessanterweise ist das, was aus dem Produkt, das ich damals zusammen mit
16:14
Boing's gemacht habe, Boing's TV, ist so eine Live-Mischer-Software auch.
16:19
Das kann sowas. Also das ist halt relativ flexibel, heißt Mimo Live inzwischen.
16:24
Mal gucken, ob das jetzt genau den Anwendungsfall erfüllt, weiß ich nicht mehr.
16:28
Ich bin ja da schon lange raus, aber da habe ich mich ja mal mitgeschrieben. Das gibt es noch, ja.
16:35
Mimo Live.
16:36
Mimo Live heißt das jetzt, Mimo Live 6 oder so, keine Ahnung,
16:40
die sind auch im Einsatz für Live-Fernsehschnitt-Geschichten,
16:43
also es ist halt mehr so ein Broadcast-Studio in der Box,
16:47
aber lower certs und Grafiken einblenden und das Ganze kann man und man kann
16:52
Dinge vorbereiten vor allem. Also man könnte damals bei BoingTV schon Plugins selber machen über Quartz Composer
16:57
und ein bisschen JavaScript und Co., um sich dann eben ein bisschen so eine
17:03
Art von Animation zu bauen, die man so gerne braucht. Also tendenziell könnte das schon was sein, was hilft, wenn das noch gut ist.
17:09
Ich habe es schon lange nicht mehr angeguckt. Aber so Software grundsätzlich gibt es schon auch. Es ist ja mehr so gefühlt
17:17
so ein bisschen mehr so ein Live-Keynote, was du gerne hättest, oder?
17:22
Ja.
17:23
Live-Modus für Kino.
17:24
Genau, also es könnte auch sein, dass man in dieser Präsentationssoftware-Kategorie
17:27
vielleicht mehr Erfolg hat. Aber Broadcast ist natürlich, hast du natürlich recht, hat ja im Prinzip genau dieselben Aspekte.
17:37
Auch gerade dann mit so Überblendungen oder dass man vielleicht so eine bestimmte
17:41
Maske hat, dass unten immer irgendwie da noch ein Logo steht und so eine Sachen. Ja, tatsächlich.
17:49
Aber was eigentlich dahinter steht, ist eben auch so eine Art und Weise,
17:54
wie man eben Podcasts visualisiert und ähnlichen Bedarf hätten,
17:58
könnten wir ja hier jetzt auch haben.
18:00
Also wir haben ja immer diesen Konflikt, wir machen eigentlich jetzt ein Produkt,
18:07
was für Audiokonsum gedacht ist, wir wollen halt irgendwie über alles reden
18:11
und manchmal ist es schwierig, dann werden wir heute auch wieder so einen Tag haben,
18:14
weil wir wollen halt über die Vision Pro ganz viel reden und wir versuchen die
18:19
ganze Zeit irgendwas zu beschreiben und dann tendiert man immer schnell dazu,
18:22
irgendwie auf dem Bildschirm zu zeigen und sagen, wie man hier sieht und das
18:26
funktioniert natürlich nicht. Andererseits wäre es aber ganz cool, zumindest auch für so ein Live-Publikum,
18:32
vielleicht eben so ein Screen tatsächlich mit zu maintainen.
18:36
Also dass man so ein Live-Modul hat, wo dann quasi immer der Content ist,
18:40
der gezeigt wird, aber man eben dafür auch noch einen Video-Jockey hat,
18:44
so ein Content, so ein Podcast-Video-Jockey. Und das könnte ja … Das ist halt so ein bisschen das Punkt.
18:48
Den brauchst du halt extra, weil das kann ja keiner von uns parallel machen
18:52
großartig. Oder wenn wir da alle mitmischen kollaborativ, wäre es auch furchtbar.
18:55
Richtig. Da ist ja der Slack-Channel schon so das, was es gibt.
19:01
Genau, das ist nämlich schon sehr schwer, einen Chat-Channel zu bespielen.
19:05
Aber wenn man das sozusagen externisiert und sagt, man hat jetzt sozusagen so
19:08
ein Content-Team, was dann live zuhört und das dann sozusagen auch für live Podcasts macht,
19:14
kann man ja im Prinzip für beliebige Podcasts machen und das so halbwegs gewissenhaft
19:18
macht, dann könnte was Interessantes bei rauskommen.
19:20
Und dann hätte man auch ein Material, wo es sinnvoll wäre, so eine Podcast-Aufzeichnung
19:26
als Video zu veröffentlichen.
19:28
Also natürlich hast du im Wesentlichen den Ton, aber du hast dann quasi die
19:32
Videospur so als optionale Begleitspur, die du dir einblenden kannst,
19:37
wenn du möchtest, aber du musst es halt nicht.
19:39
Könnte ja auch ein motivierter Hörer bei der Freakshow machen,
19:42
weil die Links und so weiter sind ja alles da, wenn jemand schnell ist und einen
19:46
Stream parallel macht und Zweitverwertung.
19:48
Ja, aber dazu müsste es halt die Software geben. Vielleicht.
19:52
Oder die sind ja vielleicht so drauf. Man weiß es ja nicht. Manche Leute machen
19:56
sowas in ihrer Freizeit einfach und dann können die.
19:59
Machen im Sinne von sowas programmieren oder machen im Sinne von sowas durch?
20:03
Irgendwie benutzen. Irgendwie ihren Twitch-Channel bespielen können,
20:07
weil sie live bespielen können, schon mit irgendeinem Setup und die würden das
20:10
mal ausprobieren wollen.
20:11
Ja klar, aber trotzdem brauchst du ja immer noch diesen Input-Kanal.
20:12
So Kamerakind für Freakshow-Werden.
20:14
Wenn ich jetzt hier einen Screenshot habe, über den ich reden möchte und den
20:17
ich sozusagen da anzeigen will, dann muss ich den ja hier während der Sendung
20:20
mit Drag & Drop oder so irgendwie in diese Queue kriegen.
20:25
Also diese Queue ist schon, sagen wir mal, der entscheidende Faktor.
20:29
Das ist jetzt nicht ein Nebenaspekt oder so, sondern das ist schon so das, was zählt.
20:33
Ja, wobei der Slack-Chat ja schon diese Queue ist für uns eigentlich, weil da meistens Links und Bilder und so weiter sind.
20:37
Ja, aber Rohmaterial hätte man da genug, denn da kann man nicht einfach abbilden,
20:41
aber wenn man jemand hätte, der praktisch den Content,
20:44
den wir da reindonnern, aufbereitet in einem 16 zu 9 oder iPhone-Format einfach
20:49
schönen, also wenn jemand das mal machen möchte, fände ich interessantes Experiment.
20:56
Ja, aber Er wüsste dann auch.
20:58
Welche Tools man braucht.
20:59
Er unterschätzt nicht die Chaotik und Dynamik eines Live-Chat-Channels.
21:06
Leute, die Twitch streamen und so weiter, wir haben bestimmt doch Hörer, die sowas auch machen.
21:11
Die haben da so ein gewisses Potenzial an Wissen, wie man denn das visuell da
21:17
macht, weil du brauchst ja schon noch so ein bisschen Engagement und ein bisschen Witz dabei.
21:21
Klar, natürlich.
21:21
Auch Style.
21:23
Auch ganz wichtig.
21:24
Auch Style.
21:25
Naja, aber es muss dann trotzdem natürlich ein,
21:31
wie soll ich sagen, ein eigener Stil dabei sichtbar werden.
21:40
Und nicht einfach nur so ein hier ist das nächste Bild, hier ist das nächste
21:44
Bild, hier ist ein Webbrowser.
21:47
Das ist langweilig. Es muss auch und deswegen rede ich vielleicht auch von VJing,
21:54
weil ein VJ ist ja nun auch nicht einfach nur so ein Knopfdrücker,
21:59
sondern VJing bedeutet ja auch, da so eine kreative Note reinzubringen und einen Stil zu haben.
22:04
Also eine Handschrift, das ist vielleicht das, was ich suche, das Wort.
22:11
Genau, also ich wollte das auch nur mal so in den Raum stellen und bin für alle
22:15
Tipps dankbar und ich würde mir auf jeden Fall mal dieses Mimo anschauen,
22:20
das vielleicht auch eine Option ist, aber alles steht und fällt mit diesem Channel-Ding.
22:25
Also es muss sozusagen von mehreren Leuten also mindestens zwei Personen,
22:31
zwei Plus-Personen gestaltet werden können und dann wird es erst spannend.
22:38
Ja. Dann, wir haben uns ja hier über Staubsaugerroboter unterhalten.
22:51
Ja.
22:53
Gestern ist bei meinem die Cloud ausgefallen.
22:57
Okay.
22:59
Ja, womit das Ding zwar weiterhin seinen bisher programmierten Zeitplan verfolgt
23:04
hat, aber man konnte keinen Einfluss mehr drauf nehmen, wann dieser Zeitplan
23:09
ist oder stoppen oder sonst irgendwas.
23:13
Einfach nur so, nein, einmal am Tag wird jetzt geputzt. Und das war's dann.
23:18
Ich hab ja so ein Nito. Und ein Nito ist vor einem Jahr oder zwei von Vorwerk gekauft worden.
23:26
Und Vorwerk hat jetzt aber sozusagen Nito gedroppt.
23:32
Also die Nito-Webseite sagt so, wir sind irgendwie außer Business.
23:38
Und du kannst aber hier noch auf den Support-Button klicken und die Cloud läuft
23:42
halt noch, aber das war es dann auch und dann hast du noch irgendwie so die
23:45
ganzen Hilfe-Seiten, die auch nicht so richtig helfen.
23:49
Ja, und ein bisschen unklar, was sie damit vorhaben, aber das scheint nicht
23:54
so ein geiler Move geworden zu sein. Ich glaube, Vorwerk hat noch unter eigener Marke auch noch solche Staubsauger-Roboter am Start.
24:00
Ja, schon immer gehabt eigentlich.
24:03
Ja, weiß aber auch nicht, wie sie damit vorgehen, aber die eigentliche Frage,
24:06
die damit natürlich wieder aufkommt, so ist, okay, okay, was mache ich mit meinem Produkt, wenn die Cloud abgeschaltet wird,
24:13
weil die Firma ja dann sozusagen gar kein Geld mehr damit verdient,
24:17
sondern es nur noch Kosten hat und die ganze Zeit irgendwelche Pfennigfuchser
24:21
in der Vorstandsentage halt darüber entscheiden müssen,
24:25
wie lange sie da sozusagen noch einfach Geld reinfanneln, damit sie nicht so
24:28
schlecht dastehen, obwohl es ihnen eigentlich irgendwie auch egal ist.
24:31
So haben die Leute doch einen neuen Sturmsauger gekauft.
24:34
Eben, eben, eben.
24:35
Ja, hurra Cloud.
24:40
Ich habe einen Roborock, der funktioniert ganz gut.
24:43
Deren Cloud ist noch online.
24:45
Ja, auch das. Ich weiß aber nicht, wie viel Cloud die überhaupt braucht,
24:47
wirklich. Also für Updates und so schon, aber ansonsten ist der eigentlich,
24:51
der ist, glaube ich, autark. Ich glaube nicht, dass der die Cloud braucht für irgendwas.
24:55
Man kann die benutzen.
24:56
Um was zu machen.
24:57
Das glaubst du nicht wirklich, oder?
24:58
Naja, er hat obendrauf halt den Jetzt-Bitte-Staubsaugen-Button und ich glaube,
25:04
wenn die Cloud ausfällt, funktioniert außer diesem Button dann auch nicht mehr mehr viel.
25:09
Die Cloud ist ja, die App, spricht die mit dem auch mit der Cloud?
25:14
Ich dachte, die spricht mit meinem lokalen Netz.
25:16
Nee, tut sie nicht. Spricht über die Cloud mit dem Staubsauger und der zeigt
25:22
dir dann, wo er gefahren ist und dieses und jenes und dann kannst du deine Pläne
25:27
bearbeiten und so weiter und ich glaube, wenn die Cloud ausfällt,
25:30
dann kannst du halt noch den Homebutton drücken und den jetzt Staubsaugen-Button
25:34
und dann war es das wahrscheinlich.
25:36
Tja, es müsste sozusagen so eine
25:38
kommerzielle Cloud geben, wo man alle Staubsauger drüber fahren könnte.
25:43
Wenn eine Firma Out of Business gibt, dann übergibt sie das sozusagen einfach da an die Staub-Cloud.
25:49
Es gibt für Roborock, gibt es so eine Open Source Cloud,
25:53
wo man dann mit irgendwelchen VPN oder DNS-Hacks irgendwie den Zugriff auf die
26:00
Cloud, auf die eigene Open Source Cloud umbiegen kann, aber das ist natürlich….
26:04
Aber da merkt man wieder, wie naiv ich bin. Ich gehe einfach davon aus,
26:08
wenn die hier im lokalen Netz einen Web-Server laufen haben und die sind ein
26:11
Computer, weil die haben doch eh Strom. Wieso brauchen die eine Cloud, um irgendwie den Raum festzufahren?
26:17
Die brauchen doch keine Cloud.
26:19
Keine Ahnung, weil man heutzutage halt alles in der Cloud macht,
26:22
wenn man in der Cloud ist.
26:23
Naja, für den ganzen AI-Kram mit irgendwie Bilderkennung, trainieren,
26:31
verbessern, hochladen und so weiter, das ist dann alles nicht so super optional.
26:36
Dann hast du diese ganze Zeitplanung von außen mit von aktivieren von außen.
26:42
Das kann ja optional sein. Diese ganze Zeitplanung ist ja optional.
26:47
Könnte.
26:49
Also kenn mal deine Räume und speichere die Bilder von den Gegenständen,
26:55
die du umfahren hast, weil du denkst, die sind Hundekacker.
26:58
Das geht doch auch lokal auf dem Gerät. Dafür ist es doch so ein riesen Robot Dingsbums.
27:03
Ich bin ganz bei dir. Chat sagt auch, Roborock funzt rudimentär ohne Cloud,
27:07
das ist ja auch schön und das ich muss auch sagen, ich bin dann hier so ein
27:12
bisschen zusammengezuckt und dachte mir so, ich wollte die eigentlich doch noch ein, zwei Jahre nutzen,
27:18
und dann habe ich halt aber auch schon Pläne gemacht, okay, was machst du denn
27:21
jetzt, wenn sozusagen jetzt deine, dein Staubsauger in die ewigen Cloud-Gründe verschwindet,
27:32
und ja, dann ist es mir natürlich hier deine Story mit deinem Roborock eingefallen
27:36
und ich muss auch zugeben, ich habe mir die, Diesen S8, diesen Nachfolger davon angeschaut, der sieht schon wirklich sehr
27:44
schick aus. Also das wäre eigentlich genau das Richtige.
27:48
Er wischt ordentlich, er saugt ordentlich.
27:51
Hast du auch einen V7?
27:53
Saugt, bläst, er hat einen V8.
27:56
Also ich habe irgendwie das Maximallmodell 7 so mit Waschen und Ding-Doc.
28:02
Das ist eine gute Grundreinigung schon mal, wenn man es laufen lassen kann.
28:07
Bei uns ist es eher so, dass die Lego-Obsession des Nachwuchses etwas dafür
28:12
sorgt, dass wir den nicht einfach so rund die Uhr fahren lassen wollen, weil ansonsten haben wir Ligo-Teile vermisst,
28:18
Kleinteile, die zwar da in den Filter landen und so, wäre schon okay,
28:20
aber also die Situation, dass der immer saugen kann, weil der Boden frei genug
28:24
ist und nicht voller Kinderspielzeug, ist halt selten.
28:27
Deswegen ist er seltener im Einsatz, als man gerne hätte.
28:31
Das ist aber, glaube ich, herstellerunabhängig, das Problem.
28:34
Genau, das hat nichts mit dem Ding zu tun. Wenn es fährt und wenn man es regelmäßig
28:38
genug Boden Klarheit schaffen, dann war es auf alle Fälle eine super Bereicherung,
28:43
weil er halt einfach so, wenn der einmal am Tag fährt, ist halt einfach mal
28:46
eine ganz andere Raumsituation gefühlt.
28:48
Das ist schon angenehmer. Auch wenn er saulaut ist natürlich.
28:52
Ich finde den nicht laut. Also klar, auf Max.
28:54
Wenn der wieder ankommt. Achso, ja, wenn er sich wieder entleert.
29:00
Die Basisstation saugt den ja wieder leer und die macht das doch mit Werbe.
29:07
Das hat sie bei unserem Teppich auch nicht geschafft, weil unser Teppich macht zu sehr Knäuel.
29:12
Also da muss man auch mal nachhelfen. Aber ich meine, das ist ein bisschen nachhelfen.
29:15
Das ist trotzdem eine Verbesserung. Ich mag meinen Raubsauger-Roboter.
29:21
Raubsauger.
29:23
Raubsauger, ja.
29:24
Raubsauger.
29:25
Ja, wenn zu viel Lego rumliegt, dann kassiert mir das ein. Der Raubsauger.
29:34
Naja. So. So, ich war unterwegs diese Woche und das Wochenende,
29:46
das letzte Wochenende und habe die Gelegenheit ergriffen, mir dann auch mal
29:52
so eine Vision Pro ins Gesicht zu halten.
29:56
Und du Dom, hast du das auch getan? getan.
30:00
Genau, ich habe die Gelegenheit ergriffen, mir von einem Bekannten,
30:05
der hin und her sich bewegt zwischen Amerika und hier, eine mitbringen zu lassen.
30:12
Ich habe eine eigene, ich habe mir diesen Luxus gegönnt, weil ich einfach scharf,
30:16
wie auch schon in den Folgen davor gemeint bin, scharf drauf zu wissen,
30:21
wie dieses Interaktionsmodell funktioniert und deswegen bereue ich das auch nicht.
30:25
Ist aber scheiße teuer, ist schon so ein Luxusding, wenn man sowas machen will.
30:29
Definitiv. Ich war jetzt ganz froh, dass ich mir keine kaufen musste. Das war auf jeden Fall,
30:36
Um es mal vorwegzunehmen, es war auf jeden Fall sehr interessant.
30:41
Also ich hatte vorher, habe ich dann gemerkt,
30:46
ich hatte vorher so richtig keine klare Tendenz zu irgendeiner Meinung oder
30:52
zu keinem, also ich war noch nicht mal vorurteilsfähig.
30:57
Ich finde es super spannend, weil du warst ja so wir haben ja die Sendungen,
31:00
die sich so, das hat sich ja angebahnt über Jahre gefühlt und du warst so lange super anti,
31:07
was der Dreck soll und sowas will noch niemand und dann hat es ein bisschen
31:11
gekippt und jetzt bist du neutral und dann bist du neutral darauf zugegangen,
31:14
also ich fand diese Wandlung fand ich spannend, weil es interessiert mich nicht, was soll denn das Ja.
31:21
Also um es vielleicht dahingehend mal vorwegzunehmen Also meine Ablehnung oder
31:28
meine Skepsis ist generell gegenüber eben diesen Headsets als Benutzung im normalen
31:37
sozialen Kontext und auch als Alternativ zu den anderen Geräten.
31:39
Da habe ich ja auch benannt, was ich primär als Problem sehe.
31:44
Diese Abschottung von anderen Menschen, 3D macht nicht unbedingt immer Sinn,
31:50
Auflösungsproblematik etc. Etc. Kann man alles nachhören.
31:55
Und ich finde auch nach wie vor, dass das alles absolut viable Punkte sind.
31:59
Dann kam das Announcement von Apple und ich fand es halt schon bemerkenswert,
32:05
dass sie auf viele von diesen konkreten Dingen eingegangen sind.
32:10
Mit diesem Display außen und mit diesem Blickkontakt.
32:13
Wir haben ja einen riesen Aufwand gestartet jetzt eigentlich.
32:18
Um quasi ein Produkt in die Welt zu bringen, wo sie sagen können so,
32:23
ja, wir haben auch Freakshow gehört, wir wissen, was die generellen Probleme
32:28
mit dieser Kategorie sein können, aber wir haben dann auch mal was vorbereitet und guckt auch mal hier.
32:34
Das fand ich jetzt sozusagen interessant. Und,
32:39
Jetzt habe ich mir natürlich in der Zwischenzeit auch viele von diesen ganzen
32:42
Reviews, die reingekommen sind, andere Podcaster, die darüber berichtet haben,
32:47
das habe ich mir alles angehört und da waren halt viele interessante Details dabei.
32:50
Ich habe aber auch gemerkt, dass es sehr schwierig ist und das wird auch heute
32:53
wieder sehr schwierig sein, dass wenn man das nicht wirklich selber ausprobiert,
32:57
dann ist es sehr schwer zu vermitteln, was da sozusagen wirklich passiert,
33:04
wir werden es aber trotzdem probieren.
33:05
Ja, vielleicht, weil es gerade nochmal so in dieser Genese ist von diesem Produkt,
33:10
was ich ja ganz spannend finde. Wir haben ja, glaube ich, in der Freakshow habt ihr auch drüber gesprochen, so dieser Humane AI Pin.
33:17
Also die Firma, die Leute, die mehr oder weniger Humane gegründet haben,
33:21
sind die Leute, die zu dem Zeitpunkt Apple verlassen hatten,
33:25
als die Vision Pro in Planung war.
33:27
Also die haben genau, auch aus einem ethischen, dystopischen Grund mit,
33:32
die Leute wollen nicht diese Displays auf dem Gesicht, das ist nicht eine Zukunft,
33:37
die wir gerne hätten, haben die auch verlassen.
33:40
Also der AI-Pin ist jetzt auch nichts geworden, finde ich, aber ich finde es
33:44
eine interessante Background-Information,
33:49
weil die haben ja das in ihren Medien, in ihrer Präsentation mehr oder weniger
33:55
auch so Seitenhieber gemacht, wo sie gesagt haben, wir denken nicht,
33:58
dass ein Screen vor den Augen die Zukunft ist, sondern eher das andere.
34:03
Aber es ist wirklich eine große Menge Apple-Leute, die im Design fertig waren,
34:10
die nicht an diese Idee von Vision Pro geglaubt haben.
34:13
Nur so als interessante Landschaft.
34:16
Also ich glaube, wir haben über diesen AI-Pin gar nicht gesprochen,
34:19
sondern wir haben über dieses andere Ding gesprochen, Roddy.
34:21
Du hast das aufgebraucht.
34:23
Den Rabbit. Genau.
34:25
Was so eine ähnliche Idee ist, glaube ich.
34:27
Doch, ich glaube, wir haben den auch mal erwähnt, den AI-Pin irgendwann.
34:30
Aber der stand nicht so im Mittelpunkt.
34:32
Nee, nee. Ja, das andere Ding ja auch nicht. Ich fand das nur interessant.
34:38
Ja, ich meine, es ist natürlich ein ...
34:39
Und als Linkshänder musst du dir natürlich sofort meckern, dass es ein Rechtshänder-Gerät
34:43
ist. Aber das nur am Rande.
34:44
Oh, das habe ich ja letztens jetzt auch gemerkt, weil Nachwuchs ist Linkshänder.
34:51
Und Carcasson kann man recht als Linkshänder blöd bedienen in einem großen Screen auf dem iPad.
34:55
Und wir haben es nicht eingebaut, dass man es wechselt. Ich fand es ganz schön arschig von uns.
35:01
Linkshänder finden bei Apple sowieso nicht statt. Also du hast als Linkshänder
35:04
hast du bei iOS einfach verloren. Ich meine Accessibility gibt es für alles, aber Linkshänder finden nicht statt.
35:11
Weil auf dem Mac mit der Maus und so gibt es es ja schon. Und in der Vision
35:15
auch. Kommen wir später auch noch dazu.
35:16
Nein, mein Lieblings-Nörgelpunkt ist da immer,
35:21
es gibt diese Geste, um in einem Navigation-Stack zurück zu navigieren,
35:30
indem man mit dem Daumen von der linken Seite rüber zieht und dann navigiert man zurück.
35:37
Das funktioniert, wenn man es auf der rechten Hand hat, relativ zuverlässig,
35:41
weil man muss weit rübergreifen. Wenn man das iPhone in der linken Hand hat, ist der Daumen aber standardmäßig
35:47
da, wo man die Geste auslöst und man kann sämtliches horizontales Swipen nicht
35:54
benutzen, ohne dass man zurück navigiert.
35:56
Es geht einfach nicht und man kann es verdammt nochmal nicht ausschalten.
36:00
Man kann diese verdammte Navigation-Stack-Geste nicht ausschalten.
36:05
Das ist, gut, beschwere ich mich schon seit Jahren nicht mehr,
36:09
weil es keinen Sinn hat, aber wie gesagt, also Linkshändertum findet bei Apple nicht statt.
36:14
Weiß ich nicht, was das für eine Art ist.
36:19
Der am meisten verbreitete Bedienungsunterschied ist so bei Menschen eigentlich.
36:27
Es gibt mehr Linkshänder als Blinde oder so.
36:30
Aber es gibt ja so viele Sachen, Autoschlüssel, die ausklappen,
36:34
funktionieren nur in der rechten Hand oder solche Sachen.
36:40
Oder versuch mal mit der linken Hand einen Korkenzieher in eine Beinflasche
36:45
zu drehen, das kannst du komplett knicken. Und solche Sachen. Also das sind halt irgendwie, naja, aber es ist halt ein Rechtshänder-Welt.
36:54
Okay.
36:57
Kleiner Side-Track.
36:58
Okay, gut. Zurück zur Vision Pro.
37:03
Müssen wir jetzt eigentlich Apple Vision Pro sagen? Wir haben alle keine Verbindungen, oder? Das ist mir egal.
37:11
Wir werden irgendwelche Schimpfworte noch dafür...
37:14
Meine heißt Schiebruin.
37:19
Schiebbrühen?
37:21
Schiebbrühen heißt der, ja. Man muss ja einen Namen vergeben.
37:23
Vielleicht erstmal die ersten Gedanken komplett ablegen. Also ich war offen
37:30
jetzt für alles, denke ich. Und ich war halt sehr gespannt, ob ich irgendwas entdecken werde.
37:39
Und ich sage, geil, das brauche ich.
37:43
Was es ein bisschen schwierig gemacht hat, das kann ich auch gleich vorweg nehmen.
37:49
Ich hatte jetzt die Brille ohne irgendwelche Korrekturlinsen.
37:56
Und obwohl ich im Großen und Ganzen kein Problem hatte, irgendwas zu erkennen
38:02
und das alles zu bedienen, gab es so im Grenzbereich für mich schon Probleme mit der Schärfe.
38:09
Also wenn ich ein Fenster weit von mir weg hatte,
38:13
dann war es ein bisschen unscharf für mich und ich bin mir nicht hundertprozentig
38:20
sicher, aber es kann sehr gut sein, dass wenn ich vielleicht eine von diesen
38:24
Lesebrillen einsetzen. Die man ja so hätte dazukaufen können, da braucht man kein Rezept für oder keine
38:32
Bestätigung von irgendeinem amerikanischen Augenarzt, also jetzt so eine ganz
38:37
normale 1,0 Lesebrille Korrektur,
38:39
kann sein, dass das für mich vielleicht etwas verbessert hätte,
38:45
weil ich halt mittlerweile auf so eine Lesebrille meistens angewiesen bin,
38:49
wenn ich was lesen will. Also auf nahe Distanz.
38:53
Aber mit dieser ganzen Distanz ist das halt ohnehin so eine Sache.
38:57
Ich meine, auf der einen Seite hängt das alles einen Zentimeter vor deinem Auge,
39:00
auf der anderen Seite arbeitet dein Hirn und deine Augen die ganze Zeit mit
39:05
irgendwie einer gefühlten Distanz, die halt sehr viel größer ist.
39:08
Und das ist für mich auch sehr schwierig zu prozessieren, was da jetzt eigentlich
39:13
das richtige Setup wäre. Also das wird auch nochmal interessant sein dann zu sehen, wenn das hier in
39:18
Deutschland auftaucht und man in so einen Apple Store latscht und die einem
39:21
dann irgendwie die Augen vermessen oder was weiß ich, was für eine Beratung,
39:24
was für Tests sie dann machen, ob dann sozusagen das Ergebnis wäre mit, ja hier nimm nochmal die 1,0 Lesebrille
39:31
einsetze und dann ist es besser.
39:32
Aber Lesebrille, das wundert mich jetzt ein bisschen, weil ich würde ja erwarten,
39:37
dass die Brille von der Optik so ist, dass sie sich auf unendlich scharf stellt.
39:45
Sprich, wenn du da reinguckst, ist es wie als würdest du ganz nach hinten gucken,
39:49
damit das Auge sowieso entspannt ist, während du die Brille benutzt und dann
39:54
brauchst du auch keine Lesebrille, dann ist es sowieso scharf.
39:56
Ich glaube, das ist das ganze Ding darum. Es ist sehr persönlich,
40:01
wie man das wahrnimmt mit der Brille, wie diese Optik wirklich funktioniert.
40:06
Ich habe viele Theorien und viele Kommentare dazu gehört, also auch bei ATP
40:11
philosophieren sie viel drumherum und haben unterschiedliche Haltungen,
40:14
wie scharf es ist oder nicht oder wie gut es ist.
40:19
Und ich habe so ein bisschen das Gefühl, das ist so ein Device,
40:22
das so vor der Nase, also so persönlich ist an der Stelle.
40:27
Ja, also diese Aussagen, diese gefühlten Wahrheiten, die man selber da erlebt.
40:31
Ja, es ist unscharf vielleicht, weil ich eine Lese... Es hätte anders sein können mit... Who knows?
40:37
Also ich glaube nicht, dass wir... Also wir sind da alle nicht optisch firm
40:41
genug, aber diese Unschärfe, die gibt es.
40:46
Also es gibt diverse Ecken und ja.
40:50
Ja, also Zylinder sehe ich halt ein. Also wenn du eine Brille mit Zylinderschliff
40:55
brauchst, dann brauchst du auch eine entsprechende Anpassungslinse,
40:59
sonst hast du da Probleme. Das ist irgendwie klar.
41:02
Zylinderschliff heißt was?
41:04
Zylinderschliff heißt, also wenn du eine normale Lupe hast, dann kannst du die
41:08
drehen, wie du willst, dann ändert sich das Bild nicht, weil in der Horizontalen
41:14
wie in der Vertikalen der Brechungsindex gleich groß ist.
41:18
So, jetzt kannst du aber eine Linse so schleifen, dass in eine Richtung der
41:23
Brechungsindex ist, anders als in die andere Richtung.
41:26
Und wenn du eine gewisse Art von Fehlsichtigkeit hast, dann ist deine Linse im Auge so.
41:34
Also dann musst du, wenn du eine Brille hast,
41:38
die gegenteilige Anpassung haben, dann ist die Linse halt in eine Richtung stärker
41:44
gekrümmt als in die andere, um diesen Zylindereffekt wieder auszugleichen.
41:51
Und das kriegst du aber halt auch nicht mit Scharfstellen oder so hin,
41:54
sondern dann brauchst du halt eine entsprechende Zylinderlinse und die muss
41:58
natürlich auch im Winkel passen.
42:01
Ja, genau.
42:03
Also es gibt ja zum Beispiel, wenn du so einen Zylinderfehler hast im Auge und
42:10
hast Kontaktlinsen, dann wird an den Kontaktlinsen unten ein Gewicht angebracht,
42:17
sodass die sich im Auge automatisch hindrehen, dass der Winkel von dem Zylinder passt.
42:24
Really? Ja.
42:25
Und wenn du den Kopf schief hältst, ist es dann leicht off-center dann?
42:29
Ich weiß nicht, wie lange die Linse braucht, um sich zu drehen,
42:32
aber das kann natürlich passieren, dass wenn du dann im Bett liegst mit dem
42:36
Kopf auf der Seite, dass sich die Linse langsam dreht und du dann irgendwann
42:39
gar nichts mehr siehst. Das kann, weiß ich nicht.
42:42
Also da bin ich jetzt auf der Nummer 1.
42:44
In diesem ganzen Kontext habe ich auch wieder noch ein bisschen Infos irgendwo
42:49
auf irgendeinem Kanal reingespült bekommen, wie denn die Augenmuskeln funktionieren.
42:54
Und ein Teil der Augenmuskeln ist eben auch ein Dreh des Auges,
42:57
damit du praktisch so ein bisschen den Horizont gerade hältst,
43:00
während dein Kopf schief ist. Also das Auge selber macht nicht nur links,
43:04
rechts, oben, unten, sondern auch in der Rotation sehr unbewusst sehr viel.
43:07
Also es ist einfach, diese ganze Thematik hat eine gewisse Komplexität.
43:13
Und das ist ganz spannend. Wusste ich nicht, dass es einen Muskel gibt,
43:17
der für die Drehung vom Auge zuständig ist.
43:19
Okay, das wusste ich auch nicht.
43:22
Naja, ich wollte ja auch nur sagen ich habe bestimmte in bestimmten Momenten den Eindruck gehabt,
43:30
dass es nicht total scharf war und das hat natürlich jetzt meine Bewertung auch
43:35
beeinflusst, aber es kann sehr gut sein,
43:38
dass das so just me ist und dass das eben durch eine entsprechende,
43:42
Linsenkorrektur, ob es die Lesebrille ist oder was auch immer also weiß nicht,
43:46
klang für mich jetzt auch nicht logisch, dass das weitet dann auf einmal bei
43:50
einer Lesebrille und so weiter beeinflusst ist, aber es ist einfach,
43:53
hier geht es auch um so Nuancen in gewisser Hinsicht in diesem ganzen Spiel,
43:58
dass ich da mich überhaupt nicht befugt finde, zum aktuellen Zeitpunkt,
44:03
irgendeine Prediction zu geben, was da jetzt sozusagen die richtige Korrektur wäre oder,
44:09
woran das liegt oder ob das jetzt noch eine Frage der Software ist,
44:12
die vielleicht noch angepasst werden muss, kann alles sein.
44:15
Aber dann lass uns doch nochmal so zurück zu den Warte mal.
44:20
An der Stelle interessiert mich jetzt natürlich schon noch die Frage,
44:24
kann man unter dem Ding eine Brille tragen oder ist das völlig aussichtslos?
44:28
Ich glaube das geht nicht, weil die sind so, da ist der Platz nicht dafür.
44:33
Also das Insert, also da wo deine Augen reinkommen, das ist schon so rund,
44:40
das ist so eine Höhle, wo du deine Augen reinsteckst.
44:43
Also sie arbeiten schon daran, dass der Bildschirm wirklich möglichst nah an
44:47
dir dran ist und diese Inserts dürften dann auch entsprechend gekrümmt sein.
44:52
Aber ich hatte jetzt keine im Zugriff.
44:54
Weil ich habe da nicht viel Erfahrung mit, aber von anderen Brillen kenne ich
44:58
das so, man lässt die Brille auf und dann passt es schon irgendwie.
45:01
Also vielleicht sollte man nochmal am Anfang jetzt erstmal erklären,
45:04
okay was ist denn jetzt eigentlich die Hardware tatsächlich, was kommt da?
45:09
Man macht irgendwie die Box auf und dann liegt das Teil halt da so vor einem,
45:15
die Fotos davon werdet ihr ja alle gesehen haben.
45:17
Und es gibt dann eben diese hübsche Befestigungsschlaufe da hinten zum Festdrehen,
45:24
die man aber eigentlich nicht nimmt, weil die sieht zwar gut aus auf Fotos,
45:30
aber du hast dann halt oben nichts und dann ist das doch signifikante Gewicht
45:37
von dieser Brille zieht dann doch sehr nach unten.
45:43
Und, die Brille besteht halt aus diesem vorderen Teil, links und rechts sind diese
45:50
Stege reingeklippt, die kann
45:53
man ja auch rausnehmen, da sind diese Lautsprecher drin, die Lautsprecher,
45:59
werden also nicht ins Ohr gesteckt, sondern die liegen wirklich nur da drüber
46:02
und sind also wirklich im eigentlichen Sinne Lautsprecher,
46:06
und die Verbindung zwischen Zwischen der Brille und dem Gesicht ist dann halt
46:13
nochmal begleitet mit so zwei Einsätzen.
46:16
Das eine ist halt ein, wie heißt das eine, wie heißt das andere?
46:20
Es gibt das Light Shield.
46:22
Light Shield, genau. Light Shield ist so ein magnetisches Stoffdings.
46:28
Genau, was sozusagen da dran klippt.
46:30
Das so ein bisschen Abstand macht und von der Form her ein bisschen interessant
46:34
ist. Das gibt es in diversen Ausführungen. Da macht man vorher einen Face.
46:39
Einen ID-kamerafähigen Scan, damit man das richtige Modell bekommt. Die haben,
46:46
zwei Zahlen und einen Buchstaben. Ich habe die 2-2-W und inzwischen ist irgendwie
46:50
auch rausgekommen, was was bedeutet ungefähr.
46:53
Es ist nicht nur einfach eine Größe, sondern es ist wirklich so eine gewisse
46:56
Menge an Gesichtsformen. Es gibt da eine irre Kombination davor.
47:00
Und da drauf gibt es dann wiederum zwei verschiedene Polster und zwar ein bisschen
47:04
dickeres und ein bisschen dünneres, so einfach einfach um den Abstand ein bisschen
47:08
größer oder kleiner zu machen. Und mit dem größeren Abstand könntest du theoretisch, glaube ich,
47:12
versuchen, die Brille aufzusetzen, aber ich glaube nicht, dass sie groß reinpasst.
47:17
Also eine Geschichte, die ich interessant finde, ist,
47:20
Dass der untere Teil, da ist so eine Nasenklappe dran irgendwie an diesem dickeren
47:25
Einsatz, also an dem allgemeinen Einsatz, den man als erstes drauf macht, der so angepasst ist.
47:30
Und ich habe die als erstes auch so angezogen, dass das andersrum über die Nase
47:33
war und dann geht da Licht rein und das ist blöd. Und der Zweck des Ganzen ist ganz spannend.
47:38
Dieses ganze Ding ist ja relativ trotzdem ein bisschen durchsichtig.
47:42
Und es ist vor allem luftdurchlässig. Und das ist der große Vorteil.
47:46
Das Ding hat so eine Ventilation und Belüftung, dass die Linsen nicht beschlagen.
47:51
Es ist das erste dieser Geräte, das ich aufgehabt habe, das mir noch nie die
47:55
Linse beschlagen hat. Und ich bin so ein Schwitzer.
47:58
Und das ist die Hölle gewesen. Das war für mich immer so ein totaler Abturner.
48:01
Bei all den Quests oder was auch immer ich aufhatte.
48:03
Erstmal, also ich habe die nur mit Föhn benutzt. Also ich habe wirklich,
48:07
ich habe einen Föhn nebenbei gelegt und den habe ich da von unten reingepustet
48:10
immer wieder, um dieses Ding wegzumachen und irgendwann nach einer Viertelstunde
48:14
ist das Zeug auf Temperatur und dann beschlägt es nicht mehr.
48:16
Aber bis dahin musste ich immer föhnen, ob das jetzt die Playstation VR war
48:19
oder die Quest oder was auch immer. Und das Gerät habe ich auf und ich sehe. Super.
48:25
Naja, die Packung. Diese verschiedenen Einsätze gibt es, aber ich glaube der
48:30
Korpus ist immer der gleiche. Also es gibt dieses eine Hardware-Gerät,
48:33
das der Tim gerade beschrieben hat und dann nur die Aufsätze sind unterschiedlich.
48:37
Das Hardware-Gerät selber ist nicht unterschiedlich.
48:39
Also das, wo das Glas dran ist.
48:42
Genau.
48:43
Das Alu-Teil.
48:44
Aber ein kleiner Nebeneffekt von dieser magnetischen Befestigung dieser Sichtsperre,
48:51
eben das Blick, die ich mache,
48:55
ist, das geht locker ab und man will es dann hochheben an dem Ding und man kann
49:00
es nicht und es fällt einem was runter und das ist bei der Preisklasse auch
49:02
ein sehr großer Schockmoment. Ist mir mindestens zwei, dreimal
49:04
passiert, bis ich das Gerät praktisch an der Brille angefasst habe.
49:09
Das große Problem ist, das Ding ist natürlich Apple-Style, vorne Glas alles,
49:14
weil da sind Sensoren drin und eben auch noch ein Display.
49:19
Das kann man auch noch zuschauen. Also das, was vorne drauf ist,
49:22
was bei der Skibrille so das Visier vorne wäre.
49:25
Dann gibt es außenrum so einen Alurahmen, den kann man grundsätzlich anfassen,
49:29
will man aber auch irgendwie nicht, weil auf der einen Seite sind Lüfter,
49:32
auf der anderen Seite sind auch Lüfter und dann sind unten auch noch zwei Kameras,
49:35
die will man nicht, also die einzige Art und Weise, das Ding sauber anzufassen,
49:39
ist irgendwie so mit so einem Mittel-Pinch-Griff mit Daumen und Zeigefinger.
49:43
Aber das macht man eigentlich nicht an der Seite oder halt an den Henkeln,
49:46
die Henkel gehen auch ganz gut, da wo die Lautsprecher dran sind.
49:50
Genau, aber es ist so ein bisschen dadurch, dass es so schwer ist,
49:53
man hat immer Angst, es fällt einem runter und dann ist es halt einfach mal,
49:56
weiß ich nicht, 4000 Euro sind im Arsch, das ist ja so die Größenordnung,
49:59
von der wir im Moment sprechen, wenn man das importiert, dass man echt unter
50:02
4000 Euro kommt kommt man da nicht ran. Und ja, genau.
50:07
Okay, dann zählen wir vielleicht nochmal auf, was es so zur Bedienung da noch gibt.
50:13
Also es gibt ja eigentlich, abgesehen jetzt von den ganzen Kameras und natürlich
50:18
Mikrofonen und so, gibt es eigentlich nur zwei Controls, wenn ich das richtig sehe.
50:26
Also klar, bei dem einen Band hast du nochmal so einen Drehknopf,
50:30
um das Band festzumachen, aber jetzt für die Elektronik, für die Software gibt
50:34
es halt so eine Crown, so wie an der Apple Watch, rechts vorne,
50:40
die man eben auch drücken kann und drehen kann und links oben gibt es quasi
50:46
so einen Action-Button, sagen wir es mal so, nochmal so ein Button.
50:52
Der heißt Capture-Button und ist auch ziemlich monothematisch besetzt.
50:59
Die Crown ist das, womit man die Durchsichtigkeit der Immersion regelt,
51:04
ne? Richtig, genau. Ah ja, okay.
51:06
Genau, das ist so die Primärfunktion, also die Primärfunktion von diesen Dingern,
51:11
also der Button, wie Dom schon gesagt hat, ist halt primär so Capturing,
51:15
das heißt du drückst da drauf, dann kommst du sofort in Foto machen oder Video machen.
51:19
Also wenn du das Ding sozusagen als Aufnahmegerät nutzen möchtest,
51:23
schon mal ganz interessant, dass sie das so positionieren und tatsächlich finde
51:27
ich, das ist auch eine der interessanteren Funktionen von dem Teil.
51:31
Und die Crown, wenn du sie drückst, die ist quasi dein Homebutton.
51:36
Also damit kriegst du dann immer wieder dieses Default-App-Menü,
51:40
was wir jetzt in tausend Fotos wahrscheinlich schon gesehen haben,
51:43
wo dann eben so die Primär-Apps kommen und wo man dann durch mehrere Seiten
51:47
durchflicken kann und dann alle Apps, die installiert sind, finden kann.
51:52
Also die kannst du dir sozusagen darüber immer einblenden.
51:56
Wenn du den Button etwas länger gedrückt hältst, dann nordest du quasi deine Sicht neu ein.
52:04
Also es ist ja immer die Frage, wo ist vorne? Und wenn du dich,
52:07
sagen wir mal, du setzt dich so leicht schräg aufs Sofa,
52:10
setzt dir das Ding auf, guckst du nach rechts, aber dann nach einer Weile merkst
52:14
du so, ich will mich hier nochmal richtig hinsetzen und guckst aus,
52:17
dann schaust du ja quasi für die Kamera so ein bisschen nach links und dann
52:22
würdest du dein Home-Menü sozusagen immer rechts von dir finden.
52:25
Also diese, wo ist die Zentrale, wo ist die Mitte für dich, wo alles erstmal
52:30
bei Default erscheinen soll. Das kannst du dadurch dann machen, dass du diese Crown etwas länger gedrückt
52:36
hältst und dann zack hast du die Mitte neu definiert.
52:39
Das kann man also jederzeit dadurch nachpassen. Das ist auch so eine Funktion,
52:42
wo man wahrscheinlich vorher gar nicht draufkommt, dass man sowas braucht.
52:45
Aber das ist eigentlich das, was so diese Buttons und Dinger primär leisten.
52:52
Und das war's dann glaube ich im Wesentlichen auch schon, was so an Hardwareknöpfen
52:59
und Schräubchen so sich anbietet, oder? Habe ich noch was?
53:03
Genau, also der linke Knopf ist wirklich so Kamera anmachen,
53:06
Kamera ausmachen, Aufnahme machen. Die Crown selber ist Homebutton, und Escape vor allem auch, ja,
53:14
Doppelklick auf die Crown haut dich aus jeder Immersion sofort raus und du hast
53:18
Durchblick, ich meine, das ist die andere Eigenschaft, das Ding hat Durchsicht im Sinne von,
53:24
ich habe viele Kameras außenrum und ich versuche dir den Eindruck zu geben,
53:30
als hättest du keine Brille auf, so, kann man gleich später noch darüber reden, wie gut es wirklich glückt oder
53:36
nicht, also das ist ja auch was, viel gehypt wurde im Vorfeld,
53:38
aber grundsätzlich ist das ein Kernfeature also meistens schaut man durch nur selten oder,
53:46
Lässt man sich komplett mit Content beschallen. Auch von der Positionierung her von Apple.
53:54
Oder auch das, was es ein bisschen anders spannend macht.
53:56
Eine Frage hätte ich jetzt noch zur Hardware. Die Lautsprecher,
54:00
wie brauchbar sind die denn?
54:02
Super.
54:03
Also das ist wirklich beeindruckend gut. Ja? Ja.
54:06
Die machen echt Spaß.
54:08
Da gibt es nichts dran zu meckern.
54:10
Okay.
54:11
Zur Fairness halber muss man sagen, die sind interessanterweise bei den Quest-Dingern
54:14
auch schon nicht schlecht. Vielleicht, aber so die Apple, also ich habe eigentlich
54:18
nur Kopfhörer, AirPods drin, weil ich nicht will, dass jemand anders mithören kann.
54:24
Nicht, weil ich mir denke, die Tonqualität wird jetzt besser.
54:27
So, das ist die Größenordnung.
54:29
Aber mithören kann man an sich schon?
54:32
Wenn du daneben sitzt, hörst du, was da rauskommt. Aber es ist nicht sehr laut.
54:36
Es ist nicht sehr laut, aber es ist halt, wenn du irgendwie die Türen ganz offen
54:39
hast und so weiter, so ein bisschen so ein Radiogesäusel für die anderen.
54:42
Und hat auch ordentlich Wumms untenrum im Bass?
54:47
Ich habe jetzt nicht so viel Musik gehört, zumindest nicht so basslastige Musik,
54:52
aber ich hatte irgendwie nicht so den Eindruck gehabt, dass da einem irgendwas fehlt.
54:58
Also es war okay und wie Dom schon meinte, am Ende kannst du halt auch einfach
55:04
deine AirPods noch dazu packen, das ist eine ideale Ergänzung und dann ist ja eh alles super.
55:10
Dann will ich aber, dass die Immersion mit dem Drehrad von den Airpods genauso mitgesteuert wird.
55:19
Da hast du recht, das ist so.
55:21
Ja, das ist so.
55:22
Du kannst sie gar nicht mehr einzeln steuern. Hast du sofort den Apple-Faktor
55:26
erkannt an der Geschichte?
55:26
Das habe ich jetzt nicht verstanden. Was ist, wenn man Airpods reinmacht? Was geht da nicht mehr?
55:30
Es gibt nicht die manuelle Einstellung wie sonst mit Noise Cancellation,
55:37
Adaptive und so weiter, sondern die funktionieren einfach als Extension von
55:41
der Apple Vision Pro. Fertig.
55:43
Genau, einschließlich dieses ganzen Spazialen.
55:46
Genau, das heißt, wenn du mehr reindrehst, kommt auch mehr Noise Cancellation
55:50
und so weiter an den Start. Und das kommt ja auch dazu, wenn du so drehst.
55:55
Was passiert, wenn man dieses Drehrad dreht? Und dann kriegt man,
55:59
sein Blickfeld ist ja eigentlich,
56:01
die Gegend zeigt oder da, wo man gerade steht, weil man nur Durchsicht zeigt,
56:07
wird dann von vorne in so einem Radius langsam um einen rum,
56:11
so langsam bis zu vollständig ausgefüllt von einem Environment.
56:16
Und das ist, Environment ist ein Ding.
56:19
Jetzt greifen wir aber ein bisschen vor. Also lass uns vielleicht mal darauf
56:24
gleich kommen, weil das finde ich ist nochmal so ein wichtiger Punkt.
56:27
Wir halten einfach mal fest, so das ist so die Hardware, Lautsprecher sind super.
56:32
Super, wenn man die jetzt aufsetzt, die Vision Pro,
56:36
also jetzt sozusagen die echte Unboxing-Experience mit, das Ding ist noch komplett
56:42
leer, also so hast du es ja gemacht, so ist es mir auch übergeben worden,
56:47
dass ich das also mit meiner eigenen Apple-ID dann auch pairen konnte.
56:51
Leute, dann gehst du halt in so einen Setup-Prozess und ich muss zugeben,
56:54
ich habe mir jetzt diesen Setup-Prozess in der Reihenfolge nicht notiert.
56:58
Kann sein, dass ich das jetzt ein bisschen durcheinander bringe oder was vergesse.
57:02
Aber das war natürlich ganz interessant. Also du schaltest das,
57:05
du setzt das Teil auf, dann,
57:09
hast du ja dieses Stromkabel, was du da so reinklippst und in dem Moment,
57:13
wo du das reingeklippt hast, ist das Ding im Prinzip, bootet das.
57:19
Also du musst jetzt nicht nochmal irgendwas drücken oder so.
57:23
Und Booten heißt, du setzt es auf und das Ding ist für einen kurzen Moment schwarz.
57:29
Dann kommt ein Apple-Logo, richtig?
57:33
Es kommt erst so ein Gewaber. Es kommt so ein leichtes Helligkeitsgewaber innen im Licht.
57:39
Außen kommt ein Apple-Logo, das sieht relativ low-res aus. Und innen drin kommt
57:42
dann auch als erstes kurz in der Mitte des Screens ein schwebendes Apple-Logo.
57:46
Genau, so wie beim Mac, der bootet. Und dann geht die Kamera an.
57:53
Also das ist dann sozusagen das erste Ding, also wenn das irgendwie halbwegs
57:59
betriebsbereit ist und sozusagen sagt so, hallo, ich bin's, deine Kernfunktion.
58:05
Und die Kernfunktion heißt, du kannst hier durchgucken.
58:08
Und dann hast du auf einmal auch wieder diese Verankerung mit dem Raum was schon
58:12
mal, also bevor irgendwas aufgesetzt ist, siehst du erstmal deine Umgebung,
58:17
das ist schon mal ganz gut das fand ich sehr assuring,
58:20
und dann genau, weiß nicht, hast du das noch so im Kopf ich hab die Reihenfolge
58:24
nicht mehr so ganz drauf also das iPhone erkennt dann erstmal natürlich.
58:28
Die Durchsicht getestet an der Stelle und bin rumgelaufen, weil ich wollte erstmal
58:32
sehen, wie gut ist die Durchsicht und hab mich gar nicht an das,
58:34
was er mich leiten wollte erinnert, weil ich wollte sehen, wie ist die denn so.
58:42
Ja, und da ist mir aufgefallen, nach all dem Hype war sie mir zu schlecht,
58:47
weil sie einen extrem viel Motion Blur hatte.
58:51
Also man muss sagen, ich habe das, der Bekannte von mir ist erst abends angekommen,
58:55
also der ist mittags mit dem Flieger angekommen, brauchte ein bisschen Erholung
58:59
und wir haben das abends getestet, es sind schlechte Lichtverhältnisse.
59:01
Lichtverhältnisse machen einen riesen Unterschied für das Gerät. Und dann muss ich feststellen solange man den Kopf gerade hält ist der Durchblick super,
59:11
Aber wenn man dann den Kopf bewegt, dann hat man einen sehr absurden Motion
59:17
Blur, der einem diesen Durchschnittseffekt ziemlich kaputt macht, finde ich.
59:20
Also da muss man sich lange dran gewöhnen, dass es kurzzeitig unscharf ist und dann ist es in Ordnung.
59:29
Aber es ist nicht so, also alle haben gesagt, ja das ist genau so,
59:32
als hätte man auf und ab und so, als hätte man nichts an und das ist mitnichten so.
59:37
Also der Blickwinkel und so ist super, die Auflösung ist auch adäquat,
59:40
aber die Kameras sind sowohl von der Lichtempfindlichkeit als auch von der Schärfe,
59:44
die können noch ein paar Generationen besser werden.
59:47
Und das ist jetzt aber nur der Fall, dass das Licht schlecht ist?
59:51
Es ist besonders schlimm, wenn das Licht schlecht ist, aber es ist auch nicht
59:56
perfekt, wenn das Licht da ist. Also wenn das Licht da ist, dann ist es ungefähr so, auf so einer Handdistanz
1:00:02
ist halt was, ich meine, es ist verhältnismäßig schon cool, du kannst dein Telefon
1:00:05
bedienen, ohne dass du die Brille absetzt. So, die Auflösung hast du, du kannst es lesen und so weiter.
1:00:11
Mit Einschränkung. Also man kann dann nicht mehr alles so gut lesen.
1:00:15
Also es ist nicht so, dass es dann wirklich noch genauso aussieht,
1:00:18
sondern es ist schon etwas vager alles.
1:00:21
Genau, aber man kann es überhaupt. Also das ist schon auch so eine technische
1:00:25
Geschichte, die durchaus eine Errungenschaft ist.
1:00:27
Aber bei all dem Hype dachte ich halt so, hey, das ist so aufgelöst,
1:00:31
wie ich sehen kann. Und das ist es halt nicht.
1:00:33
Ja, zu dem Motion Blur nochmal, also man muss sich das jetzt nicht so vorstellen,
1:00:37
dass wenn man nach links guckt schnell, dass dann so alles auf einmal in so Streifen übergeht.
1:00:43
Es ist nur so, du guckst woanders hin und das Eye-Tracking braucht einen Moment,
1:00:51
bis es sozusagen das dann auch umsetzt und umsetzen heißt, dass an der anderen
1:00:58
Stelle, wo ich hinschaue, dann nochmal nachgeschärft wird.
1:01:01
Ich weiß nicht, ob das generell diese Funktion ist, die für dieses Rendering auch zuständig ist.
1:01:09
Dom, ich weiß nicht, wie du das siehst, also was der Grund dafür ist,
1:01:14
das ist mir nicht so ganz klar, aber der Effekt ist auf jeden Fall der,
1:01:17
du schaust irgendwo hin und dann ist es für so einen ganz kurzen Moment,
1:01:20
erst ist es nicht so richtig scharf und dann ist es scharf.
1:01:23
Also der Grund ist mir nicht so hundertprozentig klar.
1:01:26
Es hat glaube ich was damit zu tun, dass, so wie ich es verstehe,
1:01:32
um dieses 3D-Bild, das die Kameras außen aufnehmen, auf die Augen zu mappen,
1:01:36
was ein bisschen höher ist, ein bisschen anders die Geometrie zu machen,
1:01:39
müssen sie ein bisschen mehr Informationen haben von allen Sensoren und sind
1:01:42
deshalb ein bisschen langsamer. Weil, wenn du in 2D guckst oder eine Aufnahme machst, dann hast du diesen Blur nicht.
1:01:49
Den Blur hast du, wenn du die Brille auf hast, auf den beiden Augen.
1:01:52
Also das ist glaube ich wirklich so eine, Geometrie, Anpassung und es
1:01:56
muss genau sein und irgendeiner von den Sensoren ist noch zu leggy dafür.
1:02:00
Das ist, glaube ich, mein Eindruck. Aber who knows. Es sieht halt kurzzeitig
1:02:05
so aus, als wären zwei Bilder praktisch noch übereinander gelegt.
1:02:08
Den Blur sieht man aber auch in Screen Captures.
1:02:11
Aber nicht so sehr, wie du es drauf hast. Also wenn du es drauf hast,
1:02:15
ist eine ganz andere Größenordnung.
1:02:16
Okay, ja, aber so in User Interface Elementen und so weiter sieht man dann schon,
1:02:21
wo derjenige, der die Screen Capture gemacht hat, wo der hingeguckt hat,
1:02:25
weil alles andere ist halt doch ein bisschen blurry.
1:02:27
Das ist ja was anderes, genau, aber das ist Foveated Rendering und das ist was
1:02:32
anderes, weil das fällt dir innen nicht auf. Weil das ist einfach nur eine Optimierung, die passiert. Die können wir mal
1:02:37
kurz beschreiben, weil so schwierig ist die nicht. Das Ding hat Augensensoren, das heißt, es weiß, wo du hinguckst und um Performance
1:02:43
zu sparen, ist nur der Teil scharf. Wenn du jetzt Screen Capture machst, dann fällt dir das auf,
1:02:48
weil du dann genau siehst, wo die Person hingesehen hat und der Rest komplett unscharf ist.
1:02:52
Diese Unschärfe hast du, wenn du es aufsitzt, nicht.
1:02:55
Weil sobald du, also das ist schneller scharf, was du hingucken kannst.
1:02:58
Also das ist technisch geil gelöst. Und das ist eben eine ganz andere Unschärfe. Weil die ist ja eher nur einfach
1:03:04
die Auflösung runtergerät. Das ist wie es wäre mit Mapping, aber halt am Augen Mittelpunkt, da wo du hinguckst.
1:03:11
Es ist jetzt aber auch kein Effekt, wo man sagen muss, das ist jetzt schon der totale Dealbreaker.
1:03:16
Also das ist schon was, woran man sich gewöhnen kann. Und ich glaube,
1:03:19
es ist auch nochmal ganz wertvoll, nochmal zu wiederholen, was du gerade gesagt
1:03:22
hast, Dom, das ist mir nämlich auch erst danach klar geworden.
1:03:26
Man schaut ja in die Welt.
1:03:28
Die Kamera versucht deinen Blick zu simulieren und dir ein entsprechendes Bild
1:03:36
so zu liefern, als würdest du da selber gerade hinschauen, was du ja nicht tust.
1:03:40
Aber da, wo deine Augen sind, sind gar keine Kameras,
1:03:45
sondern die Kameras befinden sich etwas weiter oben und etwas weiter unten und
1:03:51
das heißt, sie müssen diesen Blick, die Blickrichtung oder den Winkel korrigieren in Software. wäre.
1:04:00
Und das ist also nicht so ein einfaches Durchschalten eines Videosignals,
1:04:04
wo man sich denkt, wieso gibt es da irgendwie noch überhaupt irgendeine Verzögerung,
1:04:08
sondern das ist halt auch ein digital,
1:04:12
begleiteter Vorgang, der in irgendeiner Form ein Berechnungsrendering ist und
1:04:17
das unter Umständen hier schon wirklich auf der.
1:04:21
Maximalen Geschwindigkeit arbeitet, die diese Elektronik gerade liefern kann.
1:04:25
Mit anderen Worten, das ist ein steigerungsfähiger Aspekt.
1:04:29
Es kann sehr gut sein, dass das in der nächsten oder übernächsten Generation
1:04:32
weg ist und dann auch gar kein Thema mehr ist und dann weißt du noch damals,
1:04:37
als es diesen Motion Blur gab und so weiter. Also das ist vielleicht nicht so wichtig, wenn es darum geht einzuschätzen,
1:04:43
was hat das Ding für ein Potenzial, sondern es ist mehr so eine Feststellung
1:04:48
mit so ist jetzt dieses konkrete Gerät.
1:04:51
Und das finde ich insgesamt, das ist so ein bisschen ein Thema auch,
1:04:54
das sich zumindest in meiner Bewertung durchziehen wird. Es gibt Es gibt viel Potenzial von...
1:05:01
Das technisch in der Zukunft viel besser gelöst wird. Also da,
1:05:04
wo wir jetzt beim iPhone und beim iPad ziemlich am Ende der Fahnenstange sind,
1:05:07
sind wir halt bei der Vision Pro am Anfang.
1:05:10
Das ist praktisch das Minimal Viable Product, das gut genug ist,
1:05:13
um diese Art von Computing zu machen.
1:05:15
Und was ich nochmal dazu sagen will, ist, ich habe die Durchsicht auch von der
1:05:21
Quest 3 im Vergleich gesehen,
1:05:24
also selber benutzt und diese geometrische Verzerrung, die dadurch stattfindet,
1:05:30
dass die das nicht macht, die ist sehr deutlich sichtbar.
1:05:34
Also wenn man die Quest 3 aufhat, ist die grundsätzliche Auflösung nicht so
1:05:38
viel schlechter, als man jetzt denkt, aber der Blickwinkel und die Sicht aus
1:05:42
deinen Augen ist halt einfach nicht korrekt, die ist einfach schief und es wirkt
1:05:47
alles wie ein interessantes Videospiel.
1:05:49
Hat später nochmal, erinnert mich mal an das nochmal, es hat Auswirkungen auf
1:05:55
andere Aspekte, auch die ein bisschen störend sind, also bei der Vision Pro.
1:05:59
Aber so grundsätzlich ist es schon eindeutig besser, wenn dein Blickfeld genauso
1:06:05
aussieht, wie es dein Hirn erwartet. Also auch von der Art und Weise, wie es einem selber jetzt geht,
1:06:11
wenn man das Ding auf hat, weil es gibt ja so viele physiologische Effekte,
1:06:15
die passieren, wenn man zwei Bildschirme vor den Augen hat über einen längeren
1:06:19
Zeitraum, da kann einem schlecht werden,
1:06:21
da kann man desorientiert sein, da kann blöde Sachen passieren und grundsätzlich
1:06:25
ist meine Erfahrung mit der Vision Pro da sehr gut gewesen.
1:06:32
Ein Aspekt noch in Bezug auf diese Durchsicht ist natürlich,
1:06:37
wie viel sieht man eigentlich? Und ich weiß jetzt nicht ganz genau, was das in Grad ist. Ich habe irgendwas
1:06:42
über 100 Grad gelesen. Stimmt das? Was ist dein Eindruck?
1:06:47
Es gibt keine offizielle Angabe. Leider ist es auf alle Fälle im Vergleich nicht
1:06:52
die größte der Blickwinkel, die man so haben kann.
1:06:56
Also sowohl Quest 3 als auch Quest Pro haben einen weiteren Also.
1:06:59
Es ist definitiv nicht 180 Grad. Es ist sehr viel weniger.
1:07:05
Von daher hast du schon so ein bisschen, also es ist jetzt nicht so wie durch
1:07:10
ein Fernglas gucken, auf gar keinen Fall.
1:07:13
Also dass du so richtig in so ein Rohr reinschaust oder so, das ist es nicht.
1:07:17
Aber es ist auch sofort klar, dass das nicht dein normaler Blickwinkel ist.
1:07:25
Also Blickwinkel ist nicht der richtige Begriff.
1:07:29
Du, ich bin Brillenträger seit Jahren. Ich kenne das Problem und den Effekt.
1:07:34
Also das schockt mich jetzt überhaupt.
1:07:37
Also die interessante Sache ist ja, als Brillenträger ist man sowas ja gewohnt
1:07:41
und man kann sich wohl ganz gut darauf einstellen, wenn das Blickfeld ein bisschen eingeschränkt ist.
1:07:49
Als Nicht-Brillenträger ist es durchaus ein größerer Nachteil,
1:07:52
weil man kann eben nicht einfach mit dem Auge nach links gucken und dann sieht
1:07:55
man das so weit, wie man halt am Gesicht vorbei sieht, sondern dann sieht man
1:07:59
halt mit dem linken Auge noch ein bisschen was und mit dem rechten Auge siehst du halt schwarz.
1:08:03
So, insofern man muss schon ein bisschen mit diesem Tunnelblick auch arbeiten,
1:08:07
ist aber bei den meisten Headsets so, bei anderen ist es halt ein bisschen besser
1:08:11
und das kann man natürlich auch, weil das ist auch sowas in Zukunft wird es auch besser werden noch da gibt es
1:08:17
keine technischen Gründe dafür warum man das nicht besser machen würde,
1:08:20
außer halt Auflösung im Verhältnis zu,
1:08:25
zu Blickweite und im Moment, Apple wollte halt mehr Auflösung haben,
1:08:31
Und ist auch wichtig Weil Ich finde gar nicht so, dass die Durchsicht von der
1:08:36
Auflösung her So wichtig ist, sondern das, was man ansonsten Da rein macht in
1:08:40
diese Durchsicht Das muss natürlich gestochen scharf sein Und das ist es.
1:08:44
Kann sogar sein, dass der Begriff Gesichtsfeld ist Den wir jetzt versuchen zu
1:08:47
beschreiben Gesichtsfeld.
1:08:49
Echt?
1:08:49
Ja, da gibt es nochmal Unterschiede Optik ist wirklich, das ist auch echt nochmal
1:08:52
so ein Rattenloch Da will ich jetzt gar nicht rein Auch Disclaimer.
1:08:57
Wir haben keine Ahnung Ja genau.
1:08:58
Aber sagen wir mal so, man hätte gerne mehr, also ich hätte gerne mehr,
1:09:03
aber es ist auch nicht so, dass man jetzt das gar nicht genießen kann.
1:09:09
Also ich habe nicht das Gefühl gehabt, jetzt in so eine Kammer eingesperrt worden zu sein, aber es ist…,
1:09:17
Ich würde sagen, das ist so ein Bereich, da kann ich mir sehr gut vorstellen,
1:09:21
dass wir in zukünftigen Generationen Verbesserungen sehen werden.
1:09:24
Also es sollte ein Ziel sein, noch ein breiteres Gesichtsfeld anbieten zu können,
1:09:31
aber so wie es ist, ist es brauchbar und bietet schon eine Menge.
1:09:38
Ich muss da jetzt einfach auch mal sagen, ich meine, ich hatte das erste iPhone
1:09:42
und ich hatte auch das erste iPad und ich hatte auch die erste Apple Watch und
1:09:46
diese erste Generation Geräte von Apple, die sind zwar irgendwie ganz geil, was sie machen,
1:09:52
was vorher keiner gemacht hat, aber gerade von der ersten Generation zur zweiten
1:09:59
Generation war immer ein deutlicher Sprung und das würde ich jetzt bei der Vision auch erwarten.
1:10:06
Ist klar, aber wir beschreiben das ja auch nur deshalb jetzt so akribisch,
1:10:09
damit jetzt alle, die uns zuhören, auch mal ein Gefühl dafür bekommen,
1:10:15
wie ist es denn jetzt sozusagen, was sind denn jetzt die realen Constraints der Hardware,
1:10:20
in dem sich das dann alles abspielt, worauf wir jetzt eigentlich ein bisschen hinaus wollen.
1:10:26
Ja, das sehe ich auch so. Ich würde auf was eingehen wollen,
1:10:30
was du sagst, aber halt erst später, weil das ist so der Ausblick,
1:10:33
das ist so eine, lass uns mal erst durch das Produkt, wie es ist,
1:10:36
durchgehen, aber dann haben wir relativ viel Meinung, glaube ich, noch.
1:10:40
Jetzt, wenn man es mal im Feld anguckt, zu all den anderen Brillen,
1:10:44
die du erwähnt hast, ist es schon ein Schritt nach vorne, oder?
1:10:49
Also es ist für den Zweck, den es erfüllt, ein Schritt nach vorne.
1:10:55
Es ist für manche Sachen ein Schritt zur Seite.
1:10:57
Ich denke, Apple geht den Schritt in eine andere Richtung als die anderen.
1:11:02
Dann machen wir es mal so. Kommen wir mal vielleicht kurz zum Setup. Also jetzt haben wir die erste Wahrnehmung
1:11:10
gehabt, man setzt sich das Ding auf und bevor irgendwas eingerichtet ist,
1:11:14
kann man halt durchschauen. Und das eben in diesen Constraints, die wir jetzt so genannt haben.
1:11:19
Dann kommt das Setup. Also ich meine, es fängt damit an, dass so wie wenn man
1:11:24
sich ein HomePod kauft, das Ding erscheint dann sozusagen sofort auf deinem iPhone.
1:11:28
Oh, eine Apple Vision Pro, möchtest du Setup machen? Ja,
1:11:31
zack, bumm, möchte ich gerne machen und dann fangen halt Vision Pro und dein iPhone an,
1:11:36
sich über alles mögliche zu unterhalten und dann fängt das Ding irgendwann an
1:11:39
so zu booten und dann kennst du halt dein WLAN und deine Apple ID und das ist
1:11:44
halt irgendwie alles aufgesetzt und so.
1:11:47
Dann musst du dir eine PIN geben, wie für das iPhone, dann hast du das erste
1:11:52
Mal so eine Eingabe und ich glaube, ist das vor dieser Sicht,
1:11:56
erst kommt diese Sichttest-Geschichte.
1:11:59
Erst muss der Sichttest, glaube ich, dann passieren. Aber ich glaube,
1:12:02
der Account kam auch vor dem Sichttest, deswegen, da hast du schon recht.
1:12:06
Das weiß ich nicht mehr so ganz genau.
1:12:09
Doch, da ist eine interessante Frage, glaube ich. Hat es bei dir geklappt?
1:12:14
Also, mach mal dein iPhone in die Nähe und dann wird alles transferiert und alles super.
1:12:20
Also das ganze Setup war mühelos.
1:12:22
Ich hatte gleich wieder ein Flop-Setup, aber ich hatte natürlich auch eine ältere
1:12:25
Vishnu-S-Version, während ich installiert war.
1:12:27
Also du hast ja zwei Updates schon drauf gehabt auf deiner. Bei mir war dann
1:12:31
so ein richtig, also es waren interessante Flops.
1:12:34
Also das eine war, ich hatte keine Uhr dran und deshalb war mein Telefon nicht
1:12:37
anlockt und mein Telefon hat natürlich mich mit der Brille auf nicht erkannt.
1:12:42
Also musste ich dann erstmal mein Telefon anlocken, durch die Brille zum Durchgucken
1:12:45
mit dem Passcode was ist so ein bisschen, also das ist so ein,
1:12:48
das war so ein bisschen, aber das ist auch noch ein ongoing complaint,
1:12:54
weil man könnte natürlich auch wie mit der Uhr das anlocken und dann bei mir
1:12:57
ging da leider dieser komplette Setup-Prozess so ein bisschen schief, ich war da so ein,
1:13:03
Ja, so ein klassischer Beta-Tester, dass es nicht so dolle geklappt hat und
1:13:08
dass ich dann auch nicht wusste, soll ich vom Backup einspielen?
1:13:10
Ich habe doch gar kein Backup gerade. Ich will aber meine Daten drauf haben. Was soll ich tun?
1:13:16
Also ich war so ein bisschen underwhelmed von dem, was ich eigentlich erwartet
1:13:20
habe von Apple, wie der Ablauf läuft, weil ich ein paar Fragen als erfahrene
1:13:24
Apple-Nutzer nicht beantworten konnte, ohne mir einzuscheißen,
1:13:27
dass ich vielleicht das Falsche ausgewählt habe. Aber nichtsdestotrotz, danach hat es auch geklappt und ist alles draufgesungen.
1:13:32
Dauert aber halt eine ganz schöne Weile.
1:13:35
Also ich weiß jetzt, wie gesagt, nicht, ob ich jetzt genau die Reihenfolge hinbekomme,
1:13:39
aber was auf jeden Fall dann relativ früh kommt, ist eine Kalibrierung deiner Augen.
1:13:45
Also ich glaube, das allererste ist, du sollst einfach nach vorne gucken.
1:13:48
Das ist, wenn diese beiden Augengrünen Dinger da zusammenschieben.
1:13:53
Also du guckst erst mal rein und dann messen sie sie und vermessen erstmal das
1:13:59
Auge. Damit geht's dann los. Und dann musst du an bestimmte Punkte gucken und das bestätigen.
1:14:08
Da kommen wir dann jetzt auch schon zu der ersten Interaktion.
1:14:11
Halt das mit den Fingern, das Ding. Erkennt deine, ah ne genau, die Hände. Die Hände kommen als erstes.
1:14:17
Die Hände auch, ne.
1:14:18
Das war das erste.
1:14:19
Also ne, als allererstes ist wirklich der Augenabstand. Und der wird eingestellt,
1:14:23
indem er praktisch eingeblendet kriegt, so eine Brille in beiden Seiten.
1:14:27
Also man sieht praktisch so einen Brillenumriss in beiden Seiten und dann sagt
1:14:29
der Text, drücke die Crown so lange gedrückt, bis das stimmt.
1:14:34
Und dann fährt er praktisch den Augenabstand, der ist flexibel und der wird
1:14:38
praktisch eingestellt auf dich, so lange bis es scharf wird und das macht aber
1:14:42
alles automatisch. Man drückt nur ganz lange die Crown.
1:14:44
Das war bei mir nicht mehr so.
1:14:46
Was?
1:14:46
Ich musste nicht draufdrücken.
1:14:48
Doch, doch. Nee. Alle müssen da draufdrücken. Selbst ich muss das jetzt zwischendurch
1:14:52
nochmal machen, wenn er sich verwirrt ist. Du musst einmal die Crown drücken, damit er den Augenabstand einstellt.
1:14:57
Das hast du auch gemacht.
1:14:58
Einmal drücken oder so lange drücken, bis es richtig ist?
1:15:00
Gedrückt halten, bis es richtig ist. Und er braucht halt einfach eine Zeit. Und da musst du mit Doppel-Tap nochmal
1:15:05
bestätigen. Doch, das hast du vergessen. Das ist so.
1:15:10
Okay, das ging schnell, das zu vergessen.
1:15:12
Es ist halt das Erste und du bist interessiert an allem anderen.
1:15:15
Ja, ja, es ist schwierig, sich das alles zu merken. Naja, auf jeden Fall,
1:15:18
egal wie die Reihenfolge ist, verschiedene Dinge.
1:15:21
Du musst deine Hände vor die Kamera halten, da schaut er dann drauf,
1:15:25
damit er irgendwie weiß, wie lang sind deine Finger, wie ist deine Hand etc.
1:15:28
Dann drehst du die Hände einmal um, dann guckt er sich sozusagen die Innenseiten
1:15:33
der Hände an, dann ist das Thema Hände auch schon wieder beendet.
1:15:37
Dann kann er die Hand gut erkennen und man kann diese Klickgeste sozusagen machen,
1:15:43
also Daumen und Zeigefinger zusammen,
1:15:46
das ist sozusagen der Klick und dann erscheinen Punkte auf dem Bildschirm, die man angucken muss,
1:15:54
also man fokussiert sozusagen diesen Punkt in so einem Kreis,
1:15:57
so fünf, sechs Punkte, guckst dir einzeln an und du merkst schon so,
1:16:01
oh, das Eye-Tracking funktioniert. Also du schaust es an und dann ist da so ein kleiner Punkt, der so klein wird,
1:16:06
dann weißt du so, ich hab da jetzt hingeguckt und dann machst du Snap mit deinem
1:16:09
Finger und dann geht das zum nächsten und klick, klick, klick, klick, klick.
1:16:13
Und das ist schon irgendwie ganz geil, muss ich sagen.
1:16:16
Also dieses, dass du so auf einmal so eine bionische Verbindung hast mit diesem
1:16:21
Gerät, dass also wirklich deine Augen jetzt dein Pointer sind.
1:16:26
Das ist schon irre, vor allem weil viele Dinge, wo man sich denkt,
1:16:31
so Tastatureingabe und so, wir wissen ja alle, was das immer für ein Heckmeck
1:16:36
ist, mit dem Finger dann auf solchen Tastaturen die einzelnen Buchstaben zu machen.
1:16:39
Du bist halt mit dem Auge und deiner Snap-Bewegung viel schneller als mit den
1:16:44
Fingern. Das ist wirklich irre.
1:16:46
Man muss sich so ein bisschen dran gewöhnen, dass man nicht schon auf den nächsten
1:16:49
Punkt schaut und so ein bisschen schon mal einen Schritt weiter ist,
1:16:53
aber wenn man sich dran gewöhnt hat, dann geht es sehr schnell.
1:16:57
Die Augenkalibrierung, muss ich auch sagen, hat mir relativ gut gefallen vom Design her.
1:17:02
Man guckt erstmal in die Mitte und das ist eben dieser Punkt,
1:17:04
der so ein bisschen kleiner wird und gleichzeitig so einen Soundeffekt noch hat.
1:17:07
Sie benutzen auch sehr gut den räumlichen Soundeffekt. Das heißt,
1:17:10
du guckst in eine der sechs Punkte, die außenrum sind.
1:17:15
Oder sind es sechs oder neun? Weiß ich nicht genau. Und dann guckst du da hin
1:17:19
und dann macht der praktisch auch vom Geräusch her, das Geräusch ist auch rechts
1:17:23
oben, wenn du nach rechts oben guckst. Und du kriegst ein visuelles Feedback, dass du du das anguckst,
1:17:28
aber eigentlich ist es ja, dass du mit deinem Klick ihm sagst,
1:17:32
ja, jetzt gucke ich das an. Also diese Feedback- Mechanismus, dass du ja eigentlich das Ding kalibrierst,
1:17:38
aber er währenddessen schon so tut, als wüsste er schon, was du machst, so ungefähr.
1:17:43
Das haben sie sehr gut hinbekommen. Und man muss es ein bisschen lange machen.
1:17:46
Das sind so drei verschiedene Varianten davon, weil, ich glaube,
1:17:50
wegen der Pupille, weil einmal in dunkel, einmal in mittel, einmal in hell,
1:17:53
je nachdem, wie groß die Pupille ist dann, das Auge dann, Aber dann ist es auch gegessen.
1:17:59
Dann wird dein Blick erkannt und dann kannst du Dinge angucken und mit dem Finger,
1:18:04
wenn du linke oder rechte Hand, Daumen und Zeigefinger zusammen tippst,
1:18:10
dann machst du einen Klick oder auch einen Longpress, wenn du es zusammendrückst.
1:18:13
Die nennen es glaube ich Pinch im Englischen. Das sei vielleicht auch nochmal dazu gesagt, das Ding ist im Moment nur auf
1:18:19
Englisch und funktioniert auch nur mit einem amerikanischen Account eigentlich,
1:18:23
was Tim wahrscheinlich viel Spaß gemacht hat beim Testen.
1:18:27
Und wird aber natürlich später irgendwann mal komplett international sein,
1:18:31
aber das ist im Moment so der Fall.
1:18:35
Und dieses Pinschen kann man mit links und mit rechts machen und das sind damit
1:18:40
auch mehr oder weniger zwei, so wie zwei verschiedene Touches,
1:18:44
die man damit machen kann. Ich weiß nicht, wollen wir weiter auf diese grundsätzliche Bedienung eingehen
1:18:48
oder wie erklärt man das jetzt am besten, dass man genug Fleisch hat,
1:18:52
um irgendwie, wenn wir drüber sprechen, sich was vorstellen zu können,
1:18:55
wenn man es noch nicht aufhatte.
1:18:56
Ja, also das Setup haben wir dann eigentlich soweit durch.
1:19:02
Also es besteht im Wesentlichen im Kalibrieren von Händen und Augen und wenn
1:19:10
das Gerät der Meinung ist, das wäre jetzt verstanden, dann geht es eigentlich los und ich glaube da passiert
1:19:18
dann auch nicht mehr sehr viel und dann hat man den Homescreen vor der Nase und dann geht es los.
1:19:25
Man kriegt ein, zwei Bedienungseinführungen so mit, jetzt unten an diesem Fenster
1:19:30
ist so ein Balken und den kannst du angucken und verschieben.
1:19:32
Ich glaube schon, dass du grundsätzlich noch so eine Sequenz,
1:19:36
wie du ein Fenster im Raum verschieben kannst und vergrößern,
1:19:40
die kannst du entweder mitmachen oder abbrechen, aber das wäre so noch die Einführung, die man bekommt.
1:19:44
Genau, und dann…, Dann bist du eigentlich an diesem Punkt so und dann kann man jetzt vielleicht
1:19:49
mal darauf eingehen, was sich jetzt sozusagen nach dem Setup für Möglichkeiten ergibt.
1:19:53
Also was macht man jetzt eigentlich mit dem Ding? Du sitzt jetzt auf dem Sofa, hast das Teil auf,
1:19:57
du siehst deinen Raum und du hast dann diesen Homescreen vor dir mit hier Safari
1:20:04
und Musik und was da halt alles noch so dabei ist.
1:20:11
Interessanterweise nicht alle Apps, die man so kennt, aber ein paar davon.
1:20:13
Ja, und dann kannst du halt irgendwas angucken und wenn du was anguckst,
1:20:18
dann zuckt das irgendwie so.
1:20:21
Dann kriegt das so einen kleinen dreidimensionalen Schritt nach vorn Effekt.
1:20:25
So ähnlich wie beim Apple TV?
1:20:27
Genau, genau so diese Apple-TV-Effekte ist es so im Wesentlichen.
1:20:31
Ein bisschen subtiler sogar, so absichtlich, weil es halt viel passiert,
1:20:36
weil man guckt ja viel an und das ist eh Ablenkung. Manchen ist das auch zu subtil, aber es ist so, du erkennst,
1:20:42
wenn was angeguckt wird, durch leichte Lichtverhältnisveränderungen und leichtes Highlighting.
1:20:47
Bei den Apps, die springen dich ein bisschen an, die sind fast genauso wie die
1:20:52
Apple-TV-Geschichten, wenn du da mit dem Finger so rumswipest so ein bisschen mit den Icons.
1:20:57
Und alle anderen Elemente haben mehr so einen Schimmer, so ein bisschen heller
1:21:02
oder ein bisschen dunkler oder ein bisschen weniger vibrant,
1:21:06
wie das ja so heißt bei diesen ganzen Geschichten.
1:21:08
Aber du weißt es meistens schon recht gut, was du anguckst in dem Moment.
1:21:13
Und dann kannst du, wenn du siehst, kannst du es eben drücken,
1:21:18
indem du entweder einen Finger kurz tippst oder lang tippst.
1:21:21
Und wenn du lang tippst, dann ist die interessante Geschichte,
1:21:24
also wenn es nicht nur ein Klick ist, die weitere Bewegung, die du dann auslösen
1:21:28
willst, zum Beispiel, um im Homescreen von Apps zu Apps zu kommen,
1:21:31
praktisch die App-Screens zu swipen, mehr oder weniger, die funktioniert dann mit dem Handgelenk.
1:21:35
Du hast praktisch, du guckst was an, dann machst du deine Finger zusammen und
1:21:40
ab diesem Zeitpunkt ist dein Handgelenk und deine Hand die Bedienung, nicht mehr das Auge.
1:21:45
Das Auge ist schon wieder woanders und fertig, solange du deine Finger zusammen hast.
1:21:49
Und dann kannst du praktisch so nach links scrollen und loslassen zum Werfen,
1:21:53
dann hast du so eine physikbasierte Scrollerei, wie du im iPhone und iPad auch hast.
1:21:58
Oder du kannst es halt in Ruhe loslassen. Und das ist ein ganz interessanter Moment, weil du kannst halt wirklich relativ
1:22:04
genau mit dem Tracking von deinem Handgelenk dann steuern. Also das fand ich sehr gelungen in Summe.
1:22:12
Es ist ab und zu, es gibt schon Fehlbedienungen, so ist es nicht,
1:22:15
aber es ist erstaunlich, wie fein du es machen kannst und auch wie du deinen
1:22:19
ganzen Körper dafür einsetzen kannst. Du kannst damit sehr genau steuern,
1:22:23
wenn du willst. Also das Auge selber ist relativ grob.
1:22:26
Das braucht relativ große Hit-Targets, wo du mal startest.
1:22:31
Aber wenn du da was in der Hand hast, dann kannst du wirklich,
1:22:35
wirklich sehr exakt was machen, wenn du willst. bist.
1:22:38
Zur Not kannst du deinen ganzen Körper ein bisschen vor und zurück im Raum bewegen
1:22:41
und deine Hand festlassen. Und diese ganze Bedienerfahrung ist einfach so ein bisschen,
1:22:46
da war ich sofort so Minority Report oder whatever.
1:22:49
It's the future, you got me.
1:22:52
Für mich war das in der größten Ordnung von Bedienfreude, wie es jetzt wirklich,
1:22:58
Touch-Bedienung war am Anfang auch, finde ich.
1:23:00
Und das ist auch nach wie vor, wenn ich das Ding aufhabe und mal eben mein Fenster
1:23:02
irgendwo hin und sonst, das klappt einfach grundsätzlich. Das ist so smooth
1:23:07
und so nett und so wenig Belastung für die Hände.
1:23:12
Das stimmt.
1:23:13
Ich würde sagen, bei den Sachen, die so potenziell hätten schief gehen können,
1:23:20
ist das bei mir so Platz zwei Top-Liste, was so richtig, richtig gut funktioniert hat.
1:23:27
Das ganze Handtracking funktioniert irre gut.
1:23:31
Und wenn es mal nicht funktioniert, dann hat es meistens was damit zu tun,
1:23:34
dass du die Hände dann doch irgendwo hinter deinen Klamotten versteckst oder
1:23:37
gerade deinen Kopf so hältst, dass die Kamera einfach die Hände nicht sehen kann.
1:23:41
Man gewöhnt sich so sehr daran, dass es funktioniert, dass du dann,
1:23:44
was weiß ich, die Arme nach hinten hinter deinen Kopf legst und denkst,
1:23:48
du könntest jetzt irgendwie weiter klippen und pinchen und zoomen und so weiter,
1:23:53
was natürlich dann nicht geht. Also du bist schon gezwungen, deine Hände vorne zu halten. irgendwo zumindest.
1:23:59
Das ist dann fast schon ein bisschen enttäuschend. Da würde ich mir fast schon
1:24:02
noch so Kameras nach hinten wünschen. Ich will immer getrackt werden.
1:24:07
Ich will eigentlich zwei Uhren dran und dann sollten die einfach alles weiter
1:24:12
tracken. Vor allem das Pinschen auch. Dieser Unterschied, wenn du mit deinen Händen aus dem Blickfeld dann verschwindest,
1:24:20
das relativ groß ist und auch dadurch, dass die Kamera ziemlich weit nach unten
1:24:23
zeigt, auch wirklich breit.
1:24:25
Aber dann ist halt der Weiser nicht mehr dass du die Hände noch zusammen machst. Kann er auch nicht.
1:24:30
Und dann wird es wirklich blöd, weil dann hast du halt so einen Touch,
1:24:33
der hängen bleibt und so und das, ich weiß nicht, mir passiert das sehr viel,
1:24:37
weil ich bin halt auch jemand, der, Dinge immer extrem bedient so und mit dem Arm rudert und so und auch der halt
1:24:44
gerne auf der Couch so lümmeln würde und dann die Hände sind hier so oben über
1:24:48
dem Kopf hinten und kraulen und würden gerne tippen.
1:24:50
Und das geht natürlich dann nicht. Also müssen sie ein bisschen nach vorne sein,
1:24:53
aber die andere Hand, die vorne liegt, also man kann schon auf dem Schoß die
1:24:57
Hand liegen haben und dann tippen. Das geht. Also man muss Man kann das sehr entspannt machen, was glaube ich auf Dauer für
1:25:03
diese Bedienung, für diese ganzen körperlichen Gebrechen, die mit Computerbedienung
1:25:07
einhergehen, super wichtig sind, weil wenn man verkrampft sowas bedienen würde
1:25:11
oder ständig nur direkt touchen kann,
1:25:13
dann würde es nicht gut funktionieren.
1:25:17
Das moderne Äquivalent, die Maus hat das Trackpad verlassen.
1:25:25
Damals, als die Mäuse noch Kugeln hatten.
1:25:29
Also was auch interessant ist, so für einfache Bedienungen geht auch direkt Untouchen.
1:25:35
Also man kann praktisch den Tipp auch machen, meistens indem man auch tippt.
1:25:41
Also man kann praktisch auch näher an die Apps rangehen und dann die App antippen,
1:25:45
die man starten will. Das funktioniert. Und man kann auch auf dem Zahlenfeld, wenn man jetzt den Pin eingeben muss, kann man den tippen.
1:25:52
Man muss den nicht angucken und pinchen. was natürlich,
1:25:57
Security-technisch eher schlecht ist, weil die Leute sehen dann, was du tippst.
1:26:03
Aber ich mache es schon ab und zu, muss ich sagen. Mir ist es ab und zu lieber.
1:26:07
Aber.
1:26:09
Das mit der direkten Interaktion ist definitiv ein bisschen mehr awkward,
1:26:13
weil es schlechter funktioniert. So im Verhältnis. Es hat so eine gewisse Latenz, eine gewisse Fadigkeit.
1:26:21
So, jetzt müssen wir natürlich auf die andere Sache noch eingehen.
1:26:23
Das ist halt das mit diesen Fenstern. Also alles, was du machst mit den Programmen, mit den Apps, was halt irgendwie
1:26:32
Interaktionen sind, geschieht halt in Fenstern, die du dir irgendwie in den Raum legst.
1:26:40
Was ist denn ein Fenster überhaupt in dem Kontext?
1:26:44
Ist das eine Fläche? Ist das eine Kurve?
1:26:51
Da musst du ja jetzt eigentlich schon beschreiben, was ist denn ein Fenster im Raum?
1:26:55
Ja, das versuche ich ja auch gerade zu beschreiben.
1:26:58
Das ist eine Fläche, oder?
1:26:59
Die ist eben. Abgesehen von diesem Home-Menü, was sozusagen überall schwebt,
1:27:03
so im Raum, vor dir einfach nur die Icons in der Luft,
1:27:08
hat alles andere schon so eine Fensterartige Verankerung.
1:27:16
Und wenn du halt jetzt, was weiß ich, Safari auswählst, dann geht halt ein Browser-Fenster
1:27:21
auf Und das schwebt dann irgendwo gefühlt einen Meter vor dir.
1:27:27
Als hätte jemand ein Brett in der Luft gehängt.
1:27:30
Genau. Und es hat halt dieses transluzente Ding. Und das ist jetzt aber auch wirklich...
1:27:37
Mein absoluter Platz 1 an, oh mein Gott, was bin ich unfassbar beeindruckt davon,
1:27:44
wie gut sie das hinbekommen haben,
1:27:46
das ist halt einfach, das Ding steht halt im Raum und damit meine ich, es steht im Raum.
1:27:52
Und wenn du halt mit deinem Kopf wackelst und wenn du irgendwie deinen Körper
1:27:57
bewegst und deine Kamera hin und her wabbert und niemand sitzt still,
1:28:02
du hast immer Bewegung, immer schaust du irgendwo anders hin,
1:28:06
dieses Fenster bleibt einfach immer an der Stelle und da wackelt nix.
1:28:14
Kein Jitter, kein Blitzen, kein Pixelflashen, kein irgendwie ja im Wesentlichen ist es schon da,
1:28:22
aber nicht immer, sondern das ist da einfach wie reingemeißelt in deinen Raum
1:28:27
und das ist wirklich unfassbar.
1:28:33
Also das haben sie so gut hinbekommen. Ich glaube, dass es auch, wenn sie das nicht hinbekommen hätten,
1:28:39
dann hätten sie das Ding nicht geschippt, aber das ist wirklich genug.
1:28:43
Also ich war mehrfach erstaunt, wie gut das funktioniert und das ist halt die Basis.
1:28:49
Das heißt, dann ist diese Illusion perfekt, dass du etwas in den Raum stellst,
1:28:53
dass es halt da schwebt einfach so vor dir mit Schattenwurf und dann kannst
1:29:00
du es halt irgendwo hinlegen. Und wenn du dann unten an dieses Fenster deinen Blick wendest und auch nochmal
1:29:07
tappst, das ist halt auch das Ding.
1:29:10
Also du hast zwar immer dieses Eye-Tracking und man denkt sich so,
1:29:13
naja, ich muss immer alles nur angucken und dann tut es das.
1:29:16
Das würde aber dann bedeuten, dass wenn du so hin und her schaust,
1:29:21
jedes nur irgendwie erdenkliche Interaktionselement immer auch sofort aufleuchtet,
1:29:26
wenn du da mit deinen Augen drüber gehst und das würde natürlich stören und
1:29:30
deswegen ist es manchmal wichtig, dass du das auch erstmal aktivierst.
1:29:35
Weißt du, hast du deinen Musikplayer, der zeigt dir dann so ein Cover an,
1:29:38
aber du siehst nicht automatisch, wenn du drauf schaust, einen Interface-Control
1:29:43
für Vor-Zurück-Spulen oder Pause oder so, sondern du musst es dann anschauen,
1:29:48
einmal so ein Tab machen und dann erscheint erst dieses User-Interface-Element.
1:29:53
Weil sonst würden ja permanent irgendwelche User-Interface-Elemente um dich
1:29:56
herum aufpoppen und gleich wieder verschwinden und das würde dich wahnsinnig machen. machen.
1:30:00
Und genauso ist es, glaube ich, mit diesen Controls unten, oder die muss man
1:30:04
auch manchmal aktivieren.
1:30:06
Ja, genau, man muss die Fenster ab, also gerade wenn man so einen Film guckt
1:30:09
oder so, da blenden sie sich manchmal aus, da muss man erstmal einmal tippen
1:30:12
und die dann unten aktivieren, das verwirrt die Leute teilweise auch,
1:30:15
weil schau halt stärker dahin, ist schon so ein Impuls, den man hat.
1:30:20
Aber es ist und manche, es ist auch noch ein 1.0 Produkt, das heißt,
1:30:26
ab und zu ist es auch so, dass die UI gar nicht erscheint Also wenn man es länger
1:30:30
in Benutzung hat, ist es schon auch noch klar, das hat Kinderkrankheiten, aber das sind halt Bugs.
1:30:34
Wenn man von denen absieht, ist es aber so, okay, man muss das Fenster,
1:30:38
wenn man es bedienen will und es hat kein Element zum Verändern oder zum Schließen,
1:30:42
dann muss man wahrscheinlich einmal reintippen. Und die Elemente zum Verschieben
1:30:47
und Bedienen sind relativ schlicht gehalten.
1:30:49
Also Fenster nochmal sind wirklich Flächen im Raum, die stehen irgendwie dreidimensional
1:30:54
im Raum zu dir im Verhältnis und halt wirklich fest verankert im Raum in gewisser Größe,
1:30:59
haben abgerundete Ecken alle und haben, wie Tim schon gesagt hat,
1:31:04
auch wenn du nicht die Immersion anhast, dann wirklich in dem Raum selber werfen
1:31:09
die einen Schatten am Boden. Du hast am Boden wirklich dann einen Schatten oder am Tisch oder wo auch immer die sind.
1:31:13
Wenn die geometrisch so im Raum stehen, dass sie den Schatten werfen können, dann tun sie den auch.
1:31:18
Du kannst sie aber auch einfach durch die Wand irgendwie durchsetzen und dann
1:31:20
hast du ein Loch in der Wand, das eigentlich für dich optisch keinen Sinn macht, aber ist okay. okay.
1:31:26
Also so eine Kinoleinwand kannst du auch hinter die Wand setzen und dann siehst
1:31:30
du dann eine ausgeschnittene Kinoleinwand. Das ist schon okay.
1:31:34
Und dieses Bedienelement unten ist relativ schlicht gehalten.
1:31:37
Das heißt, man hat einen Strich, der
1:31:39
so ein bisschen aussieht wie dieser Home-Button-Indikator auf dem iPhone.
1:31:43
Dieser Home-Button-Strich.
1:31:46
Und den kann man angucken und eben mit einem Pinch nehmen und dann kann man
1:31:52
das Fenster dreidimensional im Raum verschieben und positionieren,
1:31:55
wo man es denn gerne hätte. und links daneben ist so einfach nur ein runder
1:31:58
Punkt, der ist auch super schlicht. Und wenn man den anguckt, dann wird es ein bisschen größer und wird ein X und
1:32:02
damit schließt man Fenster. Und das ist bei allen Elementen so.
1:32:05
Das heißt, bis auf, also es gibt später auch noch andere Sachen als Fenster,
1:32:10
aber die haben eigentlich diesen Strich und diesen Punkt. Das ist so die.
1:32:15
So die Design-Sprache. Und dann gibt es eben noch eine andere Sache,
1:32:20
wenn man in die Ecke guckt, rechts oder links unten, werden wir unten schon
1:32:23
diese Elemente sieht und das Fenster resizable ist,
1:32:28
vergrößerbar ist, dann gibt es da praktisch so Anfasser an den Ecken,
1:32:31
die auch nur ein gebogener Strich sind.
1:32:34
Und diesen gebogenen Strich kann man angucken, nehmen und dann kann man halt
1:32:37
resizen und dann hängt es wieder von der App ab, ob man das jetzt irgendwie
1:32:40
so machen kann, dass es beliebig die Seitenverhältnisse ändert oder nicht,
1:32:44
aber es ist im Endeffekt so, in der Mitte ist das Ding
1:32:47
festgepinnt, da wo es im Raum ist und dann kann man es größer und kleiner ziehen in gewissen Ausmaßen.
1:32:52
Und was ich sagen muss, die Art und Weise wie, wenn man das Fenster unten am
1:32:57
Fensterrand verschiebt, die Art und Weise, wie sie das gelöst haben,
1:33:01
ist erstaunlich intuitiv und exakt.
1:33:03
Das macht so richtig Spaß, diese Fenster im Raum zu platzieren und man hat überhaupt
1:33:07
keine Frage, was denn so Sache ist. Also die. Reichweite, die man so auswählen kann, ist super. Also die hat praktisch so
1:33:15
Also die hat einfach, macht wahnsinnig viel Sinn und wenn es über die Grenzen
1:33:18
hinaus geht, indem man es verschieben kann, dann kann man sich ja im Raum bewegen dann noch.
1:33:22
Das heißt, wenn ich es dann noch weiter im Raum haben will, dann muss ich halt
1:33:25
dann gehen ab einem gewissen Zeitpunkt. Aber sie haben echt eine super Range ausgewählt, wie man die verschiebt und
1:33:32
auch einen super Blickwinkel. Also die sind immer relativ senkrecht zur eigenen Sicht.
1:33:37
Also es sind Flächen, es ist nicht so wie bei der Quest 3 oder so,
1:33:40
dass es gebogene Dinger sind.
1:33:42
Es sind gerade Flächen, es sind brechen gerade, was bei größeren Fenstern auch
1:33:45
ein bisschen schwierig ist. Aber ich glaube, es ist auch ganz ästhetisch sinnvoll, weil es einfach diese
1:33:50
räumliche Interaktion viel klarer macht.
1:33:53
Und es ist so ein bisschen wie wenn man diese, es gibt ja so,
1:33:58
was waren diese 3D-Bilder mit den zwei Augen, die man so nach vorne und nach
1:34:02
hinten schieben kann. So Stereoskopbilder, genau, die man dann so ein bisschen
1:34:05
vor die Nase hält und vorneweg, so kann man sich das so ein bisschen vorstellen.
1:34:09
Und so verschiebt man da eben so virtuelle Dinger, aber da ist halt Inhalte drin.
1:34:13
Da sind Spiele drin, da sind Personen drin, da sind Webseiten drin und da kann
1:34:18
man sich so den Raumvolk leisten.
1:34:23
Ja, also das ist wirklich gut gelöst.
1:34:27
Ich kann ja auch nur zustimmen, diese Positionierung, diese Vor-Zurück-Bewegung,
1:34:32
um die Tiefe zu bestimmen, aber dann eben auch so diese zweidimensionale Platzierung um einen herum und
1:34:39
du kannst sie halt auch überall platzieren, du kannst sie auch direkt über dir platzieren.
1:34:42
Kannst dich ins Bett legen und kannst irgendwie einen Film an der Decke schauen, wenn dir danach ist.
1:34:51
Und von daher hat man auf einmal einen unglaublichen Platz, wo man so Fenster hinlegen kann.
1:35:00
Wobei man auch sagen muss, diese Perspektiven, die sich daraus ergeben,
1:35:08
das ist dann halt auch nicht so, dass man sagt, jetzt habe ich so viel Platz,
1:35:12
jetzt kann ich hier 30 8K Fenster hinlegen.
1:35:16
Deswegen, also abgesehen davon, dass jetzt die Auflösung der Kameras das natürlich
1:35:22
so nicht hergeben oder der, nicht der Kameras, der Displays,
1:35:25
der inneren Displays das überhaupt gar nicht hergeben würde,
1:35:28
macht es auch keinen Sinn, weil wenn die Dinge weiter weg sind,
1:35:32
dann müssen sie auch irgendwie größer sein. Also das ist dann halt wie im richtigen Leben.
1:35:39
Überhaupt ist so die Menge an Content, die so in diesen Fenstern sind, ist so überschaubar.
1:35:47
Trotzdem waren manche Sachen für mich fast auf der Vision Pro konsumierbarer als auf dem Computer.
1:35:57
Ich habe zum Beispiel großen Spaß daran gehabt, Webseiten zu lesen.
1:36:01
Also ich fand das Lesen von Webseiten, von so Artikeln,
1:36:08
Irgendwie, weiß ich nicht, irgendwie angenehmer.
1:36:13
Spannend.
1:36:13
Also das habe.
1:36:15
Ich noch kaum gemacht bisher. Ich habe Safari so gemieden wie die Pest.
1:36:19
Gibt es da Tabs? Ja.
1:36:22
Wie meinst du das?
1:36:24
Naja, hat das Fenster Tabs. Achso, Tabs.
1:36:28
Willst du wissen, wie die optisch aussehen?
1:36:30
Nö, einfach nur, ob es sie gibt. Also ich meine...
1:36:33
Also es gibt den Mechanismus, der Tabs heißt ist und es sind frei schwebende
1:36:37
oben drüber ein paar und darüber hinaus sind es einfach dann mehrere Fenster
1:36:42
im Raum, die du anders platzieren kannst.
1:36:43
Ja klar, dass du mehrere Fenster machen kannst, davon war ich jetzt ausgegangen.
1:36:47
Aber Oder du hast halt diese Tab-Galerie wie auf dem iPad dann auch irgendwie,
1:36:51
wo du eher durch das Grid durchscrollst, anstatt dass du das andere machst.
1:36:55
Aber du hast auch oben so, glaube ich, drei oder vier maximal,
1:36:58
weil du hast schon so eine gewisse, in der Grundauflösung kannst du dir vorstellen,
1:37:03
hast du eher ein iPhone als ein iPad.
1:37:06
Von dem, wie es von der Größe her auf dich wirkt.
1:37:11
Also das kann man nochmal jetzt vielleicht eingehen auch darauf,
1:37:13
es gibt ja viele Systemeinstellungen und eins davon ist auch,
1:37:15
wie groß deine Default-Fontgröße und deine Default-Fenster sind.
1:37:18
Und da gibt es halt ein paar Größen, aber es ist schon eher größer gedacht wegen
1:37:24
der Bedienung, glaube ich, wegen angucken können und machen.
1:37:27
Deshalb ist es eher so, Dinge sind ein bisschen größer.
1:37:30
Und deswegen brauchen sie auch mehr Platz und deshalb...
1:37:34
Sind sie weniger dicht. Also du hast jetzt nicht einen Mac-Interface normalerweise,
1:37:38
sondern eher einen iPad und ich würde sogar sagen, sogar einen iPhone-Interface von der Grundidee her.
1:37:47
Ich habe jetzt gerade nochmal darüber nachgedacht, warum ich das eigentlich
1:37:49
so angenehm gefunden habe. Ich weiß, ich mache das auch, also ich habe ja hier einen sehr großen,
1:37:56
bin jetzt auf so einen 40 Zoll Widescreen Monitor gegangen.
1:38:00
Ein großer Freund generell von Desktop und großen Bildschirmen und wenn ich
1:38:05
an meinem 40 Zoller Webseiten lese,
1:38:08
dann habe ich die auch meistens, die Schrift sehr groß,
1:38:12
damit ich also auch wirklich in so einem Meter Abstand von diesem Bildschirm
1:38:17
weg sein kann und genieße das, dass einfach viel Fläche bereitsteht,
1:38:22
um den Text groß anzuzeigen.
1:38:25
Und es ist gar nicht so sehr dieses, dass ich das jetzt brauche wegen Brille
1:38:30
oder Sehschwäche oder so, sondern es ist einfach,
1:38:33
ich finde, dass ich weniger Aufwand leisten muss, den Text zu erfassen,
1:38:39
wenn er groß und klar ist.
1:38:41
Dass ich weniger Fehlerkorrektur betreiben muss, als wenn ich das jetzt in so
1:38:47
einem kleinen Font auf so einem sehr überschaubaren Bereich auf dem Bildschirm betrachten muss.
1:38:53
Und insofern ist diese Vision Pro dann eigentlich die perfekte Perspektive,
1:38:57
weil du sitzt da gemütlich im Sofa,
1:39:00
schaust so leicht nach oben und dann prangt einfach diese riesige Webseite vor
1:39:04
dir wie so eine riesige Leinwand, wie so ein Beamer quasi.
1:39:08
Also du schaust auf einen Beamer, der bloß sehr scharf ist und ja,
1:39:13
das war dann irgendwie angenehm. Also ich habe das definitiv nicht als unangenehm
1:39:19
empfunden, wenn man dann halt...
1:39:26
Sich ein Macintosh quasi als Fenster holt, da können wir ja vielleicht mal drauf
1:39:33
eingehen, jetzt dieser Aspekt, also es gibt ja diese Funktion,
1:39:38
du hast dann so dein Laptop vor dir, ich hatte so mein R und dann habe ich so
1:39:42
drauf geschaut und irgendwie haben sie halt so eine AI-Erkennung,
1:39:46
dass sie A wissen über Handoff, okay da ist jetzt auch ein Mac mit derselben Apple-ID und so weiter da,
1:39:53
da, aber sie erkennen halt den Laptop als solchen.
1:39:56
Also sie haben halt irgendwie eine, oder?
1:39:59
Gibt es da noch einen anderen Trick? Ich glaube, sie erkennen einfach Tastatur.
1:40:02
Oberkante Bildschirm ist schon ordentlich.
1:40:04
Die wissen einfach, da steht jetzt ein Laptop und sie wissen auch genau, in welcher,
1:40:09
Positionierung und über dem Bildschirm erscheint dann halt so,
1:40:11
möchtest du dich damit verbinden und dann guckst du drauf, machst Tap und dann
1:40:15
geht der Bildschirm aus auf deinem Laptop, der ist dann schwarz und dann erscheint
1:40:20
halt da drüber irgendwie, eben so so als Fenster im Raum,
1:40:25
eine 4K-Monitor-Simulation für deinen Computer.
1:40:29
Also da ist dann sozusagen auch mehr Platz.
1:40:32
Da ist ein größerer Bildschirm als der, der jetzt auf dem Laptop ist.
1:40:36
Und die Fenster arrangieren sich halt entsprechend und das hast du dann vor der Nase.
1:40:40
Das war dann der Moment, wo bei mir diese, das ist nicht der richtige Wort,
1:40:45
aber diese Tiefenschärfe, also die Schärfe, wenn es ein bisschen weiter weg
1:40:48
ist, ein bisschen nachgelassen hat, habe ich es näher an mich rangezogen war es für mich besser zu erkennen aber
1:40:54
wie gesagt, das mag einfach nur meine Optik sein,
1:41:00
aber dann habe ich halt versucht mit den Mac-Apps zu arbeiten und in irgendeiner
1:41:06
Form zu interagieren und dann hast du natürlich auch wieder so einen kleinen
1:41:08
Medienbruch, also auf einmal musst du dann deine Tastatur und deine Maus wieder benutzen,
1:41:13
weil es ist ja ein Mac irgendwie so, dann ertappst du dich so ein bisschen dabei,
1:41:17
so wie man Man anfängt auf dem Mac rumzutippen, wenn du die ganze Zeit ein iPad benutzt hast.
1:41:24
Möchtest du dann die ganze Zeit deine Programme anstarren und wunderst dich,
1:41:27
warum die jetzt sozusagen nicht auf deinen Blick reagieren.
1:41:31
Also Eye-Tracking auf dem Laptop, hm.
1:41:36
Also das wäre auch so ein Feature, das könnte ich auch im Laptop gebrauchen,
1:41:39
weißt du, dass man einfach so Eye-Tracking hat und dann mit den Fingern irgendwie,
1:41:43
also das fällt mir jetzt gerade erst ein, das wäre eigentlich ganz geil.
1:41:48
Leider nicht. Leider nicht. Also deshalb wollte ich es auch sehen,
1:41:51
weil Apple was released mit Eye-Tracking, was funktioniert. Ich habe den Luxus gehabt in diversen, ich glaube zwei, drei von guten Prototypen
1:42:00
von Eye-Tracking-Steuerung für Laptops.
1:42:04
Zu fummelig, zu kleinteilig, zu unangenehm. Also was Apple da gemacht hat, ist schon sehr gut.
1:42:12
Und du triffst nicht so genau. Also ein normaler Laptop-Screen hat einfach nicht nicht die Fidelity.
1:42:18
Das wäre wie wenn du, stell dir vor, iOS hätte Mac-Auflösungen eigentlich und
1:42:23
von der bedienenden Größe her. So ungefähr ist das.
1:42:26
Also die Idee ist nicht schlecht, aber ich habe das in schlecht gesehen.
1:42:29
Deshalb war ich ja so heiß drauf, es in gut zu sehen.
1:42:33
Und wie gesagt, die PC-Varianten waren alle schlecht bisher, die ich gesehen habe.
1:42:37
Ja, okay. Also ich habe ja nur gesagt, man hat dann wieder dieses Problem,
1:42:41
dass so ein anderes User-Interaktionsmodell in dem anderen hast Und dann musst
1:42:46
du irgendwie da hinterher kommen. Kann man damit arbeiten?
1:42:50
Ja, schon, wenn es konsequent scharf gewesen wäre für mich, weil ich wollte
1:42:56
den Bildschirm dann nicht so nah an mich ranholen.
1:42:59
Das ist auch merkwürdig, was man als angenehm findet oder so.
1:43:02
Also wenn ich den so nah ranziehe, das Fenster, dass er quasi über meinem Laptop
1:43:08
tatsächlich ist, also wenn ich es auf einen Meter Distanz mache,
1:43:11
dann ist es mir zu nah, es ist mir zu aufdringlich.
1:43:14
Und dann habe ich es halt weiter nach hinten geschoben, dass es so ein,
1:43:17
zwei Meter Abstand hat, wie so vor so einem Beamer.
1:43:21
Dann war es mir halt ein bisschen zu unscharf. Wäre das scharf gewesen, wäre es scharf gewesen.
1:43:28
Dann wäre es, ich weiß nicht, ist das bei dir so, wenn du so ein,
1:43:32
zwei Meter gefühlten Abstand hast, siehst du das dann scharf?
1:43:38
Also es gibt für mich eine Distanz, wo es nicht mehr scharf genug ist auch.
1:43:42
Also ich muss den nah genug halten.
1:43:45
Ich habe den jetzt eher so als Standing Desk benutzt mit meinem Air meistens.
1:43:49
Und wenn ich die Default-Auflösung habe, dann kann ich ungefähr so zwei,
1:43:52
drei Tastaturbreiten kann ich es in die Tiefe setzen, aber dann wird es schon knapp.
1:43:58
Und wenn ich es näher ranhole an mich, dann ist das Problem,
1:44:01
dann mache ich es meistens auch kleiner, weil ich will den Winkel nicht haben.
1:44:04
Und ehrlicherweise muss ich feststellen, für das Air unterwegs würde ich es
1:44:10
wahrscheinlich benutzen wollen. Und natürlich ist es geil, wenn du für die Vision Pro was entwickelst.
1:44:16
Dann macht das wirklich Spaß. Klar. Aber wenn du jetzt einfach es nur als Monitor Ersatz haben willst,
1:44:26
dann ist ein Monitor mir lieber. Aber es ist eine notwendige Maßnahme für,
1:44:34
dafür, dass man da sinnvoll arbeiten kann und für entwickeln auch.
1:44:41
Ja, also es ist spannend, es ist mit der Schärfe,
1:44:45
ich bin hin und her gerissen, Weil ich habe jetzt diverse Meinungen dazu gehört
1:44:49
und ich finde grundsätzlich, man kann es als Display benutzen und es ist in
1:44:55
seiner vollen Auflösung scharf, sobald man es nicht weit genug wegstellt von einem.
1:45:00
Was ein bisschen, was immer funktioniert ist, wenn man die Auflösung runterdreht,
1:45:08
also wenn man die Auflösung einfach auf ein, zweiter unten dreht,
1:45:10
die ist super scharf, deshalb hat man von der Platzmenge jetzt nicht die Größe,
1:45:13
dann hast du nicht so viel Gewinn, aber das geht gut.
1:45:17
Man kann es auch, wenn man wirklich viel Platz braucht, auf riesengroß machen. Das geht auch.
1:45:22
Und dann ist halt so ein bisschen diese Unschärfe deutlicher erkennbar.
1:45:27
Ich finde es spannend. Ich habe am Anfang ja gemeint, der Anwendungsfall alleine wäre es schon.
1:45:35
Und das ist es für mich eher nicht. Ja, es ist ein Feature, das das System braucht,
1:45:39
aber es ist jetzt nicht was, es ist eher was, was es braucht,
1:45:43
weil wenn der Durchblick nicht scharf genug ist, wenn der Durchblick scharf
1:45:46
genug wäre, dass das Display auch volle Schärfe hat beim Durchblicken,
1:45:49
bräuchte ich nicht unbedingt.
1:45:52
Ralf fragt gerade im Chat eine interessante Frage und ich glaube,
1:45:56
da müssen wir nochmal so ein bisschen klären, wie sich diese Fenster generell verhalten.
1:46:00
Die Frage ist, kann man es nicht weiter nach hinten schieben,
1:46:02
aber dafür den Screen viel größer ziehen?
1:46:06
Grundsätzlich kann man.
1:46:16
Also es ist nicht so, dass es seine Größe beibehält in dem Sinne,
1:46:20
dass es dann kleiner wird, weil es hinten ist.
1:46:23
Sondern wenn du etwas nach hinten schiebst, wird es automatisch größer.
1:46:27
Das Fenster nimmt sozusagen immer denselben Bereich deines Gesichtsfeldes ein,
1:46:33
du hast immer denselben Winkel, ist es automatisch größer.
1:46:39
Hat aber auch denselben Content skaliert, aber es wird einfach aufgebläht.
1:46:44
Also das ist so ein bisschen wie bei Jim Knopf sozusagen, nur andersrum.
1:46:53
Der Scheinriese.
1:46:54
Der Scheinriese, genau. Wenn der in der Ferne ist, wirkt er total riesig und
1:47:02
dann kommt er immer näher und dann ist er klein. Das ist genauso wie bei Jim Knopf.
1:47:06
Ein Scheinriesenfenster. Ein Scheinriesenfenster.
1:47:10
Und das Spannende ist, dass es trotzdem einen Unterschied macht.
1:47:13
Also dass das selbe Fenster, dass das selbe Platz in deinem,
1:47:19
Gesichtsfeld, Blickwinkel, was auch immer wir da jetzt genannt haben, einnimmt, wirkt anders, je nachdem, welche Distanz es hat. Ich weiß nicht genau
1:47:26
und ich kann dir nicht genau sagen, woran es wie liegt.
1:47:29
Aber es ist trotzdem so. Ich justiere da immer wieder ein bisschen weiter weg,
1:47:33
auch beim Kinofilm gucken und so weiter. Ich positioniere das ist da, wo es angenehm ist und das ist immer ein bisschen anders.
1:47:41
Also es ist so, es macht alles einen Unterschied und es ist aber super spannend
1:47:46
auch, weil wenn man zum Beispiel so einen Film direkt vor die Nase klatscht, hat auch was.
1:47:51
Es ist nicht so nervig wie im Kino, aber es ist halt trotzdem Zunahme,
1:47:54
hat so ein bisschen so das Gefühl, es ist einem zu nah und dann ein bisschen
1:47:56
weiter weg, aber im selben Blickfeld, aber trotzdem zu flach. Es ist ganz anders.
1:48:02
Ralf fragt jetzt, sagt, bei der Quest 3 kann man das frei und unabhängig einstellen.
1:48:05
Also du kannst natürlich das Fenster auch, wenn du es weiter nach hinten schiebst, noch größer machen.
1:48:11
Wobei Programme auch immer so mit Constraints daherkommen. Also es gibt immer
1:48:14
so ein bestimmtes Maximum. Ich weiß nicht, ob das für alle Programme gleich
1:48:18
ist oder ob das Programm das definiert. Das habe ich nicht so ganz verstanden.
1:48:22
Alles, und da drehen sie auch noch drum herum. Updates haben das schon verändert
1:48:25
auch, die Verhältnisse, wie das denn so geht.
1:48:29
Und du musst halt teilweise ein bisschen tricksen. Also du musst teilweise ein
1:48:31
bisschen im Raum rumlaufen. Also wenn du was größer haben willst, als jetzt gerade geht,
1:48:35
dann geht das, indem du praktisch weiter weg gehst und es dann von dir weiter
1:48:38
weg schiebst und dann wieder näher rangehst und so.
1:48:42
Aber das finde ich eigentlich einen ganz netten Modus, wie man damit umgeht,
1:48:45
weil, wie gesagt, dieses Verändern im Raum ist so intuitiv, das macht einfach
1:48:49
Spaß, das haben sie gut gemacht, das ist einfach eine geile Interaktion,
1:48:53
die sie da geschaffen haben.
1:48:55
Es ist irre, wie schwierig das ist, diese Effekte zu beschreiben,
1:49:03
aber Aber warum ist das Fenster gleich groß?
1:49:06
Also es ist halt wirklich dieser Jim-Knopf-Scheinriesen-Effekt tatsächlich und
1:49:12
es macht einen riesigen Unterschied. Wie weit es weg ist, auch wenn es irgendwie immer denselben Platz einnimmt. Das ist crazy.
1:49:23
Fenster können ja auch hintereinander sein. Also es gibt dann auch so Stacking-Tiefe.
1:49:27
Es ist nicht so, dass ein Fenster dann exklusiv diesen Bereich hat.
1:49:32
Also es ist kein Tiling oder so, sondern du kannst da alle Fenster an dieselben
1:49:36
Stelle kloppen. Dann siehst du bestenfalls, was vorne ist.
1:49:40
Und es wird dann auch schwierig, die unterschiedlich zu managen und anzufassen
1:49:44
und rauszusuchen. Also es ist dann genauso wie auf dem richtigen Schreibtisch,
1:49:47
wenn die Zettel alle erstmal übereinander liegen, dann kommst du nicht mehr so ohne weiteres ran.
1:49:52
Also man braucht schon so eine gewisse Platzierungshygiene, aber das macht man
1:49:55
auch irgendwie intuitiv nicht und du hast auch nicht so viel offen immer, glaube ich.
1:49:59
Ich frage mich, wie dann die ersten Fenster-Tiling-Hilfs-Apps aussehen.
1:50:08
Mit Big Privacy wird es die einfach nicht geben so insgesamt.
1:50:12
Das ist halt so die andere Ecke, wenn man jetzt wirklich von der Entwicklerseite
1:50:16
her möglichst freien Expressionismus haben will, was man denn alles machen kann,
1:50:20
dann ist man auf anderen Plattformen besser aufgehoben, weil sie haben schon
1:50:24
alles von den Entwicklern weggesperrt, was in irgendeiner Form Aufschluss geben würde,
1:50:32
auf was man anguckt oder wie man das Ding bedient.
1:50:38
Also du hast ganz konkret wirklich, als App kriegst du nicht mit,
1:50:42
was angeguckt wird, sondern du sagst praktisch, okay, das ist ein Element,
1:50:46
da kann der Benutzer drauf gucken und wenn der da drauf guckt, dann wird es geheiligt.
1:50:51
Du kriegst aber nicht mit, dass es gehighlighted wird jetzt in dem Moment.
1:50:54
Du kriegst auch keine Chance, dir das praktisch so zu merken.
1:50:56
Du kannst praktisch in keinster Weise den Blick abgreifen, was aber eben auch
1:51:00
Einschränkungen hat dafür, wie man Dinge dann gestaltet.
1:51:04
Und deswegen so Fenster-Teiling-Apps wird es nicht geben, weil das wird keine
1:51:07
API vergeben. Da ist man auf der Apple-Seite so.
1:51:11
Einige von diesen Dingen, die man gerne hätte, wird es da einfach nicht geben.
1:51:14
Gleichzeitig ist aber auch für mich das eines der größten Unterschiede,
1:51:18
weil es ist ein in sich stimmiges.
1:51:23
Konsistentes Bedienkonzept durch alle Apps, durch alles hindurch.
1:51:28
Was für mich immer der größte Hinderungsgrund bei den ganzen VR-Brillen bisher
1:51:32
war, weil jedes Spiel funktioniert ein bisschen anders, jede Bediengesichte
1:51:36
funktioniert ein bisschen anders. Bei der Quest gibt es einfach, klar kannst du auch Handtracking und so weiter
1:51:40
haben, aber es ist halt immer ein bisschen anders und du musst erst die App
1:51:43
lernen, bevor du dann wieder was machen kannst.
1:51:45
Und das ist für mich so die Stärke von Apple und ich glaube,
1:51:49
das haben sie weit genug geschafft jetzt in diesem ersten Wurf, dass es spannend wird.
1:51:55
Aber das ist ja schon wieder viel zu weit.
1:51:58
Kommen wir mal so ein bisschen auf, einen anderen Aspekt, nämlich die Sache mit dem drei Dimensionen und dem Inhalt.
1:52:10
Also Content oder Oder wir müssen mal über Video und Filme und so weiter reden,
1:52:14
weil das ist natürlich etwas, was sie auch pushen, zu Recht,
1:52:18
wie ich finde, als ein mögliches Anwendungsszenario.
1:52:22
Das ist ja immer die Frage, wofür taugt denn das Ding eigentlich?
1:52:25
Und man kann, glaube ich, getrost sagen, man kann da ganz gut Filme gucken.
1:52:31
Ich habe jetzt nicht viel Zeit mit Filme gucken verbracht, muss ich sagen,
1:52:35
aber ich habe das auch ausprobiert.
1:52:38
Es gibt ja auch so einen speziellen Kinomodus da in dieser Geschichte.
1:52:43
Der ist super übrigens.
1:52:45
Ja. Achso.
1:52:45
Den braucht man dann auch.
1:52:47
Entschuldigung, wir müssen...
1:52:48
Die Environments hast du mir erwähnt.
1:52:49
Ja, wir müssen... Entschuldigung, genau. Es ist schwierig.
1:52:54
Es ist wirklich schwierig hier die Linien zu machen, aber es passt im Prinzip auch noch mit rein.
1:53:00
Also generell hat man nämlich auf diesem Top-Level-User-Interface- Element nochmal
1:53:05
so eine Dreier-Unterteilung. Das ist ja immer mal links von diesem Hauptmenü noch, oder wo war das mit diesen
1:53:11
Apps und den People und Environments, das ist doch so links so ein Steuerelement, ne?
1:53:17
Genau, das ist eins dieser Standard-Elemente, man kann praktisch an Fenster
1:53:20
links, unten und rechts und oben so Zeug dran hängen, so andere Optionen und
1:53:25
es ist mehr oder weniger wie so eine Tab-View links,
1:53:27
das ist ein Element von drei verschiedenen Tabs, mehr oder weniger von dem Homescreen
1:53:31
und das erste ist Apps, das mittlere ist Leute und das untere ist Environments.
1:53:37
Genau, und das ist ist es schon mal sehr interessant, dass es sozusagen nochmal
1:53:39
so eine Top-Level- Organisation gibt.
1:53:42
Das entdeckt man auch erst nach einer Weile. Ich habe auch immer nach der FaceTime-App
1:53:47
gesucht, um irgendwie jemanden anzurufen. Aber das ist sozusagen so weit ins Betriebssystem aufgenommen worden,
1:53:54
dass quasi diese Interaktionsmodelle ganz klar getrennt werden. Also einerseits,
1:54:00
Arbeitest du oder wählst du Apps aus? Du kriegst diese Oberfläche mit, hier sind deine Apps.
1:54:06
Der zweite Tab auf diesem Level ist Personen und wenn du das auswählst,
1:54:12
dann kommen halt Personen, mit denen du interagierst sozusagen und dann kannst
1:54:16
du die anrufen und kannst dann FaceTime damit machen. Da erzählen wir gleich nochmal drüber.
1:54:21
Und das dritte, das passt halt jetzt nochmal in dieses ganze Thema mit,
1:54:25
wie ist denn hier eigentlich die Optik und so.
1:54:29
Das sind diese Environments. Also das ist jetzt auch nicht irgend so ein Programmfeature
1:54:34
oder eine App, die man dann irgendwie noch installieren muss,
1:54:39
sondern das ist sozusagen ein genereller Begleiter.
1:54:42
Und wenn man das halt anwählt, diesen Tab, dann kriegt man eine Auswahl von
1:54:50
zwei verschiedenen Arten von Environments.
1:54:53
Die einen sind so diese softe Variante mit, da kannst du nur so deine Lichtgestaltung mit beeinflussen.
1:54:58
Du kannst sagen, ich möchte jetzt gerne morgen Licht haben, Abenddämmerung oder
1:55:02
so und dann nimmt das sozusagen Einfluss auf das,
1:55:07
wie alles gerendert wird und welchen Lichteindruck du hast, so ein bisschen
1:55:11
so Nightshift-mäßig, mehr so Modifikator.
1:55:14
Aber das dicke Teil sind natürlich diese richtigen Orte, wo du,
1:55:21
wenn du die dann auswählst, du halt in Teilen, je nachdem wie sehr du das mit
1:55:28
dieser Crown reindrehst,
1:55:30
kriegst du halt einen kleinen Ausschnitt oder eben alles um dich herum wird
1:55:35
ersetzt durch diesen virtuellen Ort.
1:55:38
Und dann sitzt du halt irgendwo am Rande von so einem See und blickst auf so
1:55:41
einen Berg und du kannst dich umdrehen und nach hinten gucken und nach oben
1:55:48
gucken und so weiter und überall, du bist halt auch einmal irgendwo anders.
1:55:53
Wie viele gibt es davon?
1:55:54
Nicht so viele, drei, vier, vier sind es.
1:55:59
Ne?
1:56:00
Eins ist Coming Soon.
1:56:01
Eins, zwei, drei, vier, fünf. Fünf.
1:56:05
Sag nochmal, das ist dieser Berg.
1:56:07
Es gibt den Berg. Dieser Joshua-Tree. Dann gibt es den Joshua-Tree, dann gibt es Yosemite.
1:56:14
Gibt es nicht auch noch den Mond? Genau, den Mond gibt es. Und dann gibt es Mount Hood.
1:56:19
Genau, Mount Hood.
1:56:20
Und dann gibt es noch... Ne, White Sands gibt es auch noch, aber White Sands war so langweilig,
1:56:25
da bin ich nicht geblieben.
1:56:26
Das ist alles eigentlich eher langweilig. Das ist alles so menschenfreie Gegenden,
1:56:30
wo nicht viel, das ist jetzt nicht so New York oder so, sondern es ist Mond.
1:56:38
Aber es ist halt maximale Immersion. Das heißt wirklich, das ist eine Umgebung,
1:56:42
da kannst du um dich rumgucken, die ist 3D, die hat eine Geräuschkulisse,
1:56:47
die hat eine Farbstimmung. Und selbst wenn du gar nichts an hast und nur, ich gehe jetzt mal zum Beispiel
1:56:52
in Yosemite rein und drehe mir den hier mal auf,
1:56:57
dann bin ich halt jetzt so in so einer Nacht in der Wüste und das fühlt sich,
1:57:03
das wirkt schon sehr so, als wäre ich da.
1:57:06
Das ist schon nicht schlecht. Und das ist halt gedacht einerseits,
1:57:11
um halt so einen Kontext zu haben und alles andere auszublenden,
1:57:16
für für eine Sache oder halt einfach wirklich nur so mal drin zu sein,
1:57:22
um sich ein bisschen zu entspannen, wenn man will.
1:57:24
Also, du hast jetzt gerade diese Kamera auf und unser Headset.
1:57:29
Mehr Cyber geht eigentlich gerade gar nicht.
1:57:32
Ich habe jetzt mal versucht, das über das Headset anzuziehen, das geht ganz gut.
1:57:36
Er müsste jetzt noch einen Datenelch reiten.
1:57:39
Aber ansonsten.
1:57:42
Aber er kennt euch nicht als Menschen, deshalb sieht man Eis halt nicht,
1:57:45
das Feature haben wir auch noch nicht erwähnt.
1:57:48
Ja richtig, oh Gott Aber jetzt immer.
1:57:50
Also diese Environments gibt's und es gibt beim Videogucken Warte mal kurz.
1:57:55
Zu dieser Immersion das muss man auch nochmal klar machen, du hast es schon
1:57:59
angedeutet, also mit der Crown kann man sagen wir mal,
1:58:04
reindrehen wie sehr bin ich jetzt in diesem Raum und das ist halt auf der einen Seite optisch,
1:58:10
aber es ist auch akustisch einerseits, dass wenn du die volle Immersion hast
1:58:15
hast, dass du dann so einen Hintergrund-Sound bekommst von diesem Ort,
1:58:19
der erst, glaube ich, so auf den letzten,
1:58:22
Dreh kommt.
1:58:24
Nee, der kommt schon relativ früh langsam rein und es ist sogar Hall, der also sogar die,
1:58:32
akustisch.
1:58:35
Beeinflusst ist alles, was du tust. Das heißt, das, was du hörst, hörst du dann anders.
1:58:40
Also wenn ich jetzt mit mit Dom FaceTime machen würde Oder mit der Vision Pro.
1:58:47
So. Und ich bin in meinem Raum. Und ich höre ihn. Dann höre ich ihn wie in einem Raum.
1:58:57
Drehe ich die Immersion rein, umso mehr ich in irgendeiner Wüste lande,
1:59:02
umso mehr verschwinden auch akustisch die Räume, also die Wände,
1:59:08
die dann keinen Schall mehr liefern und du hörst es sozusagen reflektionsfrei,
1:59:15
dein Audio auf einmal.
1:59:16
Also auf gut Deutsch, die Brille macht eine Raumsimulation auch im Schall. Richtig.
1:59:21
Genau. Genau. Und auch von der Art und Weise, wie der Schall von den Apps,
1:59:25
die Apps haben ja auch ihren Schall praktisch so ein bisschen spatial im Raum platziert.
1:59:30
Das heißt, wenn du was hast, was ein Video ist, dann hast du dieselbe spatiale
1:59:34
Orientierung von diesem Video, wie du es auch mit dem iPad auch hast, wenn du das anmachst.
1:59:39
Und da wollte ich eben noch mal am Anfang hin, wenn du die Airpods Pro im Ohr
1:59:45
hast, dann hast du halt den Automatismus, dass es ist jetzt so spatial gerendert, wie es die Vision Pro
1:59:50
vorhat und wenn du den Environment reindrehen, dann ist halt Noise Cancellation mit an auch und sowas.
1:59:55
Also du hast das nicht mehr so explizit, sondern du hast das schön integriert.
2:00:01
Das ist schon ziemlich awesome.
2:00:04
Wie klingt denn der Mond?
2:00:07
Wenig. Wenig.
2:00:09
Ja, du verlierst halt das Echo sozusagen.
2:00:11
Aber der Joshua Tree ist halt, also,
2:00:16
der Wald und so, also ich hab mich schon mal, ich war irritiert von den Geräuschen
2:00:20
ab und zu, wo ich mich mal reingedreht hab, so Grillen zirpen und so.
2:00:25
Also wie geht's dir denn, wenn du in diesen Environments rumsitzt? Gibt dir das was? Ja.
2:00:30
Für mich ist es sinnvoll, wenn ich den Raum vergrößern will.
2:00:34
Ich mache die praktisch so ein bisschen halb oder so ein Drittel an,
2:00:37
damit mein komplettes vorderes Blickfeld auf meine Arbeitsfläche so ein bisschen
2:00:42
ausgeblendet ist, aber ich den Rest von meiner Umgebung sehe.
2:00:45
Das finde ich dann ganz angenehm, weil dann habe ich praktisch nicht so diesen
2:00:48
Suspension of Disbelief, wenn ich Fenster in die Wand stelle,
2:00:51
weil da ist jetzt keine Wand mehr, da ist jetzt freie Gegend.
2:00:54
Für sowas finde ich es wichtig. Und wenn man einen Kinofilm guckt,
2:00:57
ist es interessanterweise an der Stelle super wichtig.
2:01:01
Also der Apple-Kinosaal, der bei Apple TV kommt, der sonst gar nichts hat,
2:01:07
also auch wegen der Lichthelligkeit außenrum und so weiter und der Ablenkung,
2:01:10
ist der einfach wichtig. Ja, also das Environment, das halt praktisch möglichst wenig ist,
2:01:14
aber trotzdem ein gewisses Raumgefühl hat, damit diese Wand,
2:01:18
die da in der Luft hängt, irgendwo verankert ist.
2:01:21
Also ich habe da 3D-Filme geguckt, Gravity, den ich auch im Kino gesehen habe
2:01:28
und das ist halt so, da habe ich mir das Environment Kinosaale angemacht auch. auch.
2:01:33
Ich dachte immer, bei den anderen, also bei dem, was ich bei der Quest gemacht
2:01:37
habe, war das immer irgendwie ein bisschen albern und ein bisschen fad und so,
2:01:40
aber da hat es irgendwie gepasst. Das war so richtig schön, weil der Kinosaal ist schön schwarz,
2:01:44
hat auch ganz wenig Ablenkungen dann und dann hast du halt so eine Kinofläche
2:01:49
und du willst halt wegen dem Blickwinkel schon auch nur so einen gewissen Größe haben.
2:01:55
Du willst ihn nicht viel größer machen, sodass du diese erste Reihe Erfahrung
2:01:58
hast im Kino, weil da musst du deinen Kopf immer so bewegen und du willst halt
2:02:02
genauso weit weg haben, dass du mit dem linken und mit dem rechten Auge beide
2:02:06
die volle Fläche siehst noch. Und dann brauchst du halt Environment außenrum. So geht es mir.
2:02:13
Ja, kann ich sehr gut nachvollziehen. Ich fand es auch praktisch,
2:02:17
wenn man diese Immersion so bei 80 Prozent belässt.
2:02:20
Das hat dann so den Vorteil, dass wenn man sich nach links und rechts dreht
2:02:25
und so ein bisschen nach unten guckt, dann sieht man noch so,
2:02:27
wo man sitzt und dann kann man noch so seine Sachen greifen und so weiter.
2:02:30
Also das reicht dann dann sozusagen komplett in der Immersion zu verschwinden,
2:02:35
heißt auch so ein bisschen, den Kontakt zur Außenwelt zu verlieren,
2:02:39
im wahrsten Sinne des Wortes. Und das ist dann nicht unbedingt immer das, was man braucht.
2:02:44
Aber dadurch, dass man das eben durch das einfache Drehen dieser Crown jederzeit
2:02:48
auch ändern kann und dass das so ein unmittelbares,
2:02:52
kontextunabhängige Geschichte ist. Das ist schon eine sehr gute Entscheidung
2:02:56
gewesen und das macht dann diese Environments einerseits noch nützlicher und
2:03:01
andererseits erhalten sie dadurch meiner Auffassung nach auch erst die Legitimation
2:03:06
so hoch auf Systemebene angesiedelt zu sein.
2:03:09
Sie sind einfach so ein ganz grundsätzliches Ding, was so dabei ist und du kannst
2:03:15
es immer steuern und kannst es immer beeinflussen und kannst es immer dazuholen
2:03:19
oder wegmachen, wenn du es brauchst. Ohne irgendwelche App- oder Menü-gestützten Klimmzüge zu machen.
2:03:27
Und dadurch wird es eigentlich erst so richtig nützlich.
2:03:29
Was ich persönlich ein bisschen strange finde, ist, dass es halt diese systemweiten Environments gibt.
2:03:34
Und Apps können auch Environments haben. Zumindest die Disney-Plus-Apps.
2:03:37
Ich weiß nicht, wie viele andere Third-Party-Apps auch. Und ich hätte halt gerne die auch zur Verfügung für was anderes ab und zu.
2:03:44
Weil das ist halt schon, also bei Disney-Plus gibt es halt so den Avengers-Tower, von dem man rausguckt.
2:03:49
Super geile Immersion an der Stelle. Also auch mit kleinen Details und Geräuschen
2:03:54
oder du bist halt in Star Wars in so einem Gleiter und bist halt auf einem Wüstenplanet so ein bisschen.
2:04:00
Ich hoffe, dass es für Third-Party die Möglichkeit geben wird,
2:04:05
diese Environments bereitzustellen.
2:04:06
Ah, Klingeltöne.
2:04:08
Ja, ja, das ist, also da zahlt man dann vielleicht dann wirklich gerne Geld für.
2:04:16
Aber ich glaube, das wird Apple erstmal nicht machen. Aber Apple wird mit Sicherheit
2:04:19
noch mehr liefern. Also das ist definitiv.
2:04:23
Steht da nicht sogar coming soon irgendwo? Ja, ja.
2:04:28
Ja, die sind halt nicht fertig geworden überall, aber es ist fertig genug,
2:04:32
dass es ein sinnvolles Release ist, so ungefähr.
2:04:35
Obwohl ich mir das absolut vorstellen kann, dass ein Emergency-Bereich im App Store gut laufen würde.
2:04:43
Emergency?
2:04:45
Immersion.
2:04:46
Im Immersion-Bereich.
2:04:48
Emergency.
2:04:50
Emergency.
2:04:56
This is fine. Ja.
2:05:04
Okay, aber kommen wir mal auf die Filme. Das ist schon interessant.
2:05:11
Also erstmal mal ganz normale 2D-Filme anschauen, ist super.
2:05:16
Also da gibt es, glaube ich, wenig dran zu meckern.
2:05:19
Ich habe auch heute gelesen, es ist sogar so, wenn du dir Filme anschaust,
2:05:25
die in Panavision aufgenommen wurden, dann hast du auch wirklich den Original-Kino-Aspekt-Ratio.
2:05:32
Also diese 70 Millimeter.
2:05:34
Das Fenster im Raum ändert sich Aspekt-Ratio auch noch in alle Richtungen.
2:05:38
Das heißt, du hast da keinerlei Clipping, keine schwarzen Balken,
2:05:42
das ist alles nicht mehr der Fall, sondern alles kommt sozusagen in seine,
2:05:48
natürlichen Aspektratio und damit kannst du dir einfach bestimmte Filme,
2:05:51
also viel weiß ich, Panavision war mal so ein großer Trend, ich glaube heute
2:05:55
wird nicht mehr so viel damit gemacht.
2:05:57
Cinema Scope war doch auch so ein Ding.
2:06:00
Ja, das weiß ich aber nicht ganz genau, wie die sich zueinander verhalten tatsächlich.
2:06:05
Naja gut, ist im Detail jetzt vielleicht auch nicht wichtig.
2:06:09
Vielleicht nicht wichtig, aber doch ganz interessant.
2:06:15
Cinemascope, anamorphotisches Verfahren der Breitbildaufzeichnung.
2:06:22
2,55 zu 1, später 2,35 zu 1. Mhm.
2:06:30
Okay. Und Panavision ist dann nochmal anders.
2:06:34
Also auf jeden Fall sehr breit gestretchte Filme, sagen wir es mal so.
2:06:39
Also die schon fast so Panorama-Charakter haben. Das geht auf jeden Fall.
2:06:45
Und ohne jetzt sehr viele Filme geguckt zu haben, aber das ist irgendwie für
2:06:49
mich klar wo ich schon total skeptisch werde aber das hat gar nichts mit der Vision Pro zu tun,
2:06:55
das sind halt die sogenannten 3D Filme und davon gibt es ja bei Apple TV und auch bei,
2:07:01
Disney Plus so einiges die konnte ich mir allerdings nicht anschauen ich konnte mir das nur in einem,
2:07:09
gehackten Filmchen anschauen das hatte damit mit zu tun, dass ich mit meinem
2:07:13
deutschen Apple-ID in so einer,
2:07:17
amerikanisch verankerten Vision Pro hing und dann bekam ich von diesen Apps
2:07:21
nicht die richtige Regionszuteilung und dann haben sie mir immer gesagt,
2:07:25
das wäre jetzt nicht anschaubar. Also ich konnte mir sozusagen im Disney, in der Disney-App und in der Apple-TV-App
2:07:31
keine Filme anschauen und deswegen auch die 3D-Filme nicht ausprobieren,
2:07:36
sondern ich musste dann sozusagen auf, anderes Material geben, wo ich dann mit AirDrop ob ich tatsächlich einen Film
2:07:41
auf die Kamera gelegt habe und mit so einem Partyplayer abgespielt habe.
2:07:46
Ich mag 3D-Filme, wie sie heute im Kino gezeigt werden, überhaupt nicht.
2:07:54
Ich finde es total überflüssig und vollkommen deplatziert. Mir gibt es gar nichts.
2:07:59
Das ist halt auch kein 3D, sondern das ist ja nur ein 2D-Film,
2:08:04
der dann manuell so Pepper-Cut-Aus-mäßig irgendwie an bestimmten Stellen nach vorne gezogen wird.
2:08:11
Mehr ist es ja nicht. Es ist nicht wirklich 3D-Messal.
2:08:14
Kommt immer ein bisschen drauf an, wie Sie ihn aufnehmen.
2:08:18
Beziehungsweise, wenn Sie sowieso mit CGI die Effekte machen,
2:08:21
dann können Sie die auch gleich in 3D machen.
2:08:22
Ja, könnten Sie, machen Sie aber nicht. Also generell sind die Effekte so.
2:08:27
Du hast auch keine Stereoskopie wirklich da drin.
2:08:30
Ich hatte immer das Problem, dass über der normalen Brille auch noch die 3D-Brille
2:08:35
zu haben halt irgendwie dann mal so richtig schlechtes Bild ist hinterher. Ja, aber gut.
2:08:41
Du hast ja Zugang zu dem Apple-TV-Kram und so weiter, also sag doch mal was zu den 3D-Filmen.
2:08:48
Naja, also sie wirken auf alle Fälle gut im Sinne von, wenn du die im Kino magst,
2:08:54
magst du die in der Brille auch oder noch viel mehr in der Brille.
2:08:56
Also Gravity zum Beispiel ist halt schon auch ein prädestinierter Film für diesen
2:08:59
3D-Effekt, weil dann bist du halt im Weltraum zwischen der ISS und dem anderen
2:09:04
und drehst dich und das ist alles sowieso keine Orientierung,
2:09:06
aber 3D und da bist du halt voll drin und das ist toll.
2:09:09
Aber ansonsten ist es für mich eher ein Gimmick so, ja, es ist halt ein bisschen
2:09:15
eine Tiefe da drin ist es es wirklich wert?
2:09:19
Nee will ich es lieber haben, wenn ich mir mit der Vision Pro einen Film angucke und es gibt ihn in 3D?
2:09:27
Schon, aber so aber es ist nicht wirklich wichtig also so, eigentlich hat es
2:09:33
flach auch was smootheres, weil gerade so diese aus diese verschiedenen Ebenen
2:09:38
und wie diese 3D-Sachen so gestaltet sind, sind auch ein bisschen ablenkend nur und machen es jetzt,
2:09:43
wie gesagt, bei Gravity sehr gut, für manche ist es ich glaube,
2:09:47
Avatar wird auch Sinn machen, weil es halt für 3D gedacht ist und so das Medium
2:09:51
dementsprechend benutzt würde, aber es sind halt wenige, also ich würde jetzt
2:09:54
nicht ich würde mir selbst Mario nicht in 3D gucken.
2:09:56
Ich sag dir mal, warum ich es nicht mag und warum ich das bei diesen Doku-Sachen sinnvoller finde.
2:10:01
Also, das Problem ist, dass dass sie ja nicht wirklich dieses 3D verwenden,
2:10:07
um es wirklich dreidimensional aussehen zu lassen.
2:10:11
Sondern sie verwenden ja 3D eigentlich, um Aufmerksamkeit auf bestimmte Szenen zu lenken.
2:10:18
Also klar, das ist dann schon das, was im Vordergrund ist. Aber es ist halt ...
2:10:23
Es wird einem das, was näher ist, viel zu sehr aufgedrängt, sodass wenn du dich
2:10:28
auf etwas im Hintergrund mal konzentrieren möchtest, also deinen Blick schweifen
2:10:32
lassen willst, du die ganze Zeit an diesen vorne, hinten Stufen lang polterst.
2:10:37
Ich empfinde das einfach als unangenehm. Das mag anderen Leuten anders gehen,
2:10:42
ich kann dem überhaupt nichts abgewinnen. Aber ich hab dann, Entschuldigung, ich hab dann, oder willst du darauf kurz?
2:10:48
Ja und zwar ist es ja so, dass die Physiognomie des Menschen so ist,
2:10:53
dass die Augen ja nur einen geringen Abstand haben und eigentlich ist es so,
2:10:58
dass du durch die echte Stereo-Sicht der beiden Augen einen 3D-Effekt nur so weit hast,
2:11:05
wie du mit der Hand noch anfassen kannst.
2:11:09
Alles was darüber hinaus ist, der 3D-Effekt ergibt sich nur noch durch Größen
2:11:13
und weil das Hirn da so ein mentales Modell zusammenbaut, aber du siehst,
2:11:18
was weiter weg ist in der echten Welt ja nicht mehr als echt 3D.
2:11:23
Deswegen frage ich mich auch immer, was wollen denn die Filme von mir?
2:11:26
Wollen die mir irgendwie, keine Ahnung, irgendwie Dinge direkt vor das Gesicht halten oder so?
2:11:32
Das will ich ja nicht. Also ich habe irgendeinen Star Wars Film in 3D gesehen,
2:11:37
da rennen die um das eine Raumschiff rum und plötzlich hast du irgendwie da
2:11:42
diese Ecke von dem Flügel irgendwie in der Fresse und denkst dir so,
2:11:46
Leute, das hat jetzt nicht gebraucht.
2:11:49
Irgendwie, weißt du so ich finde es so fürchterlich unsinnig, weil ne, also ein Spiel,
2:11:57
was vor dir auf dem Tisch steht, was dann auch wirklich 3D wäre wie,
2:12:03
weiß ich nicht eine Lego-Burg oder irgendwas das ergibt für mich viel mehr Sinn als so ein Film.
2:12:09
Also ganz ehrlich Sehr guter Punkt und ich bin dann auf anderen Content umgestiegen,
2:12:17
den konnte ich mir dann anschauen und wieso konnte ich mir den eigentlich anschauen und den anderen nicht?
2:12:21
Jetzt weiß ich es gerade gar nicht mehr. Diese Dokus konnte ich mir anschauen.
2:12:24
Welche Dokus?
2:12:25
Na, Apple hat so zwei, drei, das muss bei Apple TV gewesen sein.
2:12:30
Du hast dann eigentlich im Gastmodus die noch angeguckt oder so.
2:12:34
Ach so, ja, richtig. Auf dem eigenen Ding wahrscheinlich. Genau,
2:12:36
deswegen. Ich habe dann die Brille im Gastmodus noch mal betrieben.
2:12:40
Da hatte ich dann sozusagen Zugriff, aber da war dann nicht mehr Zeit für große
2:12:44
epische Filme anschauen. Aber dann habe ich mir so ein paar kurze Dokus angeschaut, die Apple produziert
2:12:51
hat, eben mit dieser stereoskopischen Kamera, mit der sie jetzt auch so Sport
2:12:56
und so weiter aufnehmen, da müssen wir auf jeden Fall auch nochmal drüber reden.
2:13:00
Und ich weiß nicht mehr ganz genau, also die eine, die mir jetzt auf jeden Fall
2:13:05
sofort in Erinnerung ist, ist dieses Highline. Das hast du gesehen?
2:13:11
Das habe ich gesehen.
2:13:12
Also das ist sozusagen...
2:13:13
Das muss man schon abkönnen.
2:13:14
Ja, also das also erst mal, die Frau ist irre, also das ist so ein Mädel,
2:13:20
die macht so Highlining, also die läuft über eine.
2:13:24
Wie nennt man denn das? Einfach über ein Seil, über eine Schlucht.
2:13:27
Und die Schlucht ist sozusagen zwei Vorsprünge, bildet sich durch zwei Vorsprünge
2:13:32
an so einem norwegischen Fjord, wo es dann so einen Kilometer runter geht gefühlt.
2:13:37
Und während sie also über dieses Seil balanciert, also nur einmal so gesichert,
2:13:44
wenn sie runterfällt, dann hängt sie halt an so einem Seil, aber jetzt hat nichts
2:13:47
in der Hand oder irgendwie so, kein Ballonstängel oder sowas.
2:13:51
Sondern macht das einfach so und das ist eine kurze Doku, 10 Minuten vielleicht,
2:13:56
20 Minuten vielleicht auch, sehr intensiv, schön gedreht und da gelingt es,
2:14:06
diese Tiefe, die unter ihr ist, diese Schlucht auf eine Art und Weise einzufangen,
2:14:14
wo ich schon sagen musste, okay,
2:14:16
now you have a point.
2:14:18
Also das war wirklich anders, als es jetzt in so einer normalen zweidimensionalen
2:14:25
Darreichung gewesen wäre. Das ist natürlich schon so speziell auch und man muss sehr großen Aufwand treiben, okay,
2:14:33
aber dieses wirkliche, echte Welt dreidimensional aufnehmen und dann eben nicht
2:14:41
so ein gefaktes Ding wie beim Film, sondern eben wie es eben wirklich ist.
2:14:46
Das kommt wirklich geil rüber.
2:14:49
Es gibt dann noch dieses andere Ding mit dieser Alicia Keys.
2:14:53
Die in ihrem Studioraum mit anderen Musikern ist und da so eine Aufnahme macht.
2:15:00
Das geht auch so zehn Minuten. Da haben sie tatsächlich drei oder vier Kameras im Raum platziert mit der Zeit,
2:15:06
wann hast du mal von der einen Stelle zur anderen Stelle. Also nicht jetzt flüssiger
2:15:11
Übergang, sondern schneidet dann einfach auf eine andere Kamera um.
2:15:14
Und dann kannst du dir halt das Geschehen so anschauen, als wärst du halt dabei, könnte man jetzt sagen.
2:15:20
Wobei ich irgendwie nie so richtig das Gefühl los gewesen,
2:15:25
nie das Gefühl los geworden bin, dass für mich wirkte das alles so ein bisschen
2:15:31
wie ein Aufenthalt im Wachsfigurenkabinett.
2:15:35
Wo sich aber alle bewegen. bewegen. Das ist so ganz interessant.
2:15:40
Bei dem Alicia Keys Ding hat man so ein bisschen so einen Effekt bei der Slack
2:15:49
Highline nicht, fand ich, weil das war halt eine Doku, die so gemacht war dafür.
2:15:53
Du bist jetzt einfach nur in der Situation, war es ein bisschen künstlicher
2:15:58
und vor allem deswegen, weil du bist ja in der Perspektive gefangen.
2:16:02
Du kannst dich ja zwar drehen, aber du kannst sie nicht bewegen und du willst
2:16:06
ja gerne mal nach vorne oder nach hinten und dann fährt die Kamera halt so ganz komisch mit.
2:16:10
Das ist totaler Brainfuck, wenn man das macht. Also man muss relativ ruhig sitzen
2:16:15
oder sich halt irgendwann darauf eingelassen haben, dass sich die Perspektive
2:16:18
nicht ändert, wenn man sich seine Chips greift. Ähm,
2:16:22
Das ist so ein bisschen schräg. Deswegen funktioniert für mich auch die Extra-Doku
2:16:26
viel besser als die Alicia Keys Nummer. Und es gibt noch eine dritte Tier-Doku.
2:16:32
Die funktioniert für mich auch nicht so gut, weil sie ein bisschen es übertreibt.
2:16:35
Mit diesen Rhino-Zurosten und so.
2:16:36
Genau, die sind mir ein bisschen, da ist mir das 3D wieder zu stark.
2:16:40
Also das Problem bei diesem gefilmten 3D, dem real gefilmten,
2:16:44
ist so, passt dieses 3D zu meiner Vorstellung von 3D?
2:16:48
Ist es so oder nicht? Und das ist bei dem Rhino-Zurosten immer nicht so sehr, bei der Slackline ja.
2:16:53
Und da finde ich es auch wirklich cool. Und bei der Alicia Keys ist es,
2:16:56
ich mag das Format, ich würde mir wahrscheinlich auch, wenn ich von Künstlern,
2:17:01
die ich auch noch mag, würde ich mir das auch angucken, weil es halt ein Erlebnis
2:17:04
ist. aber es hat so seine Grenzen. Es ist schon ein Gimmick.
2:17:09
Das ist für einen Zweck und das ist auch besser, wenn es nur eine Viertelstunde
2:17:12
ist als eine ganze Stunde. Also ich will das auch nicht abendfüllend.
2:17:15
Ich will das in kleinen Happen.
2:17:16
Genau, und da sieht man jetzt, das ist schon mal sehr interessant, diese,
2:17:21
unterschiedlichen Darreichungsformen mal sehr genau zu unterscheiden.
2:17:24
Also wir haben natürlich den 2D-Film, der ist wie immer.
2:17:26
Dann haben wir diese Schein-3D-Filme, da sind wir uns einig,
2:17:31
das ist es irgendwie nicht. Dann haben wir diese, Man nimmt reale Szenen auf,
2:17:36
aber immer aus festen Perspektiven und das bedeutet, du kannst halt nur exakt
2:17:42
genau die Position nachvollziehen, die eben die Kamera in dem Moment gehabt hat.
2:17:48
Klar, du kannst, willst aber irgendwie auch immer, weißt du,
2:17:52
du stehst da und denkst dir so, ah, jetzt steht sie aber so ein bisschen verdeckt,
2:17:55
jetzt gucke ich mal ein bisschen nach links und dann ändert sich da irgendwie
2:17:57
nichts und das ist irgendwie doof. Und das ist dann sozusagen eigentlich der nächste Schritt, also die vollständige
2:18:04
dreidimensionale Immersion von so einem Content, der ja eigentlich dann nur
2:18:08
in Echtzeit gerendert werden kann, wie das eben bei diesen Games ist,
2:18:12
die aber dann sozusagen vielleicht,
2:18:15
eine richtige Handlung haben. Also dass aus Computerspielen ein Film wird,
2:18:22
der dir komplett gerendert wird und zwar immer aus der Perspektive,
2:18:26
die du gerade einnehmen möchtest.
2:18:28
Und das gibt es ja auch, aber halt nur stilisiert. Da gibt es zum Beispiel von
2:18:32
Arte einen Comicfilm, der auch als App verfügbar ist, so wie früher beim iPad
2:18:35
auch die Bücher als einzelne Apps verfügbar waren.
2:18:38
Das ist so ein Ich-bin-für-den-immersive-space designter Film im Comicstil mehr
2:18:44
oder weniger Und ich finde da Stadt in groß, in klein und so weiter.
2:18:48
Habe ich mir den ersten Teil nur angeguckt, weil ich finde es ein bisschen anstrengend.
2:18:51
Das ist halt so eine Kunstform, die kann man so schon machen.
2:18:54
Ja, und da kannst du auch wenigstens frei rumgucken.
2:18:56
Aber du bist halt auch trotzdem den Künstlern ausgesetzt, was die damit machen.
2:19:03
Also mir persönlich macht es am meisten Spaß, glaube ich, so ein kurzer,
2:19:10
immersiver, so wie bei der Slackline, wo du noch zumindest nicht drehen kannst,
2:19:14
aber du weißt, was du machen kannst oder nicht.
2:19:16
Oder eben auch so Kino-3D-Filme, die dafür gedacht sind, was ich hier im Text
2:19:22
auch gelesen habe, die Pina zum Beispiel, die Pina Bausch-Doku.
2:19:25
Da sind es auch geile Perspektiven, die gewählt wurden, um diese Tanzauftritte
2:19:30
zu filmen und da hilft 3D auch, weil du hast halt so eine Tanzbewegung, die halt einfach davon,
2:19:35
die gewinnt dadurch, dass du ganz nah an der Bühne bist oder an dem Geschehen dran.
2:19:40
Also wiederum Dokus über Kunst, wo du das mitbekommst, finde ich ganz gut.
2:19:46
Naja, sagen wir mal so, manche Spiele haben ja Cutscenes, die so lang sind und
2:19:51
in denen man sich auch bewegen kann. Die kommen deiner Idee dann schon relativ nahe. Man müsste sie halt dann in 3D machen.
2:20:02
Jetzt ist natürlich die Frage, was wird da noch, also was man noch dazu sagen
2:20:09
muss, diese Dokus sind mit 180 Grad Kameras gedreht.
2:20:12
Also du hast halt auf der einen Seite, das muss man immer unterscheiden,
2:20:16
also auf der einen Seite haben wir diesen stereoskopischen Effekt und den gilt
2:20:20
es für sich zu bewerten. und das andere ist die Tatsache, dass du auch 180 Grad Aufnahmewinkel hast.
2:20:27
Das heißt, du schaust dir diese Doku an und kannst halt auch nach links und nach rechts schauen.
2:20:32
Und oben und unten. Und oben und unten, also du kannst woanders hingucken in dieser Halbkugel.
2:20:38
Du kannst nur deine Position nicht ändern, aber das ist schon mal ganz gut.
2:20:43
Trotzdem frage ich mich halt, warum sind es nur 180 Grad,
2:20:47
Weil man dreht dann schon so mal den Kopf ganz nach links und wenn du halt so
2:20:53
normal sitzend deinen Kopf drehst und schaust, dann hast du halt mehr als 180 Grad.
2:20:59
Das heißt, du siehst dann eben auch the end of the video.
2:21:02
Da ist dann halt irgendwie schwarz, diese Übergänge sind dann immer so blurred.
2:21:05
Das ist generell eigentlich ganz gut gemacht. Das ist dann auch später,
2:21:09
wenn man selber Filme aufnimmt und so weiter, die werden auch alle mit so einem
2:21:12
geblurrten Rand gemacht. Das hat nicht so klare Kanten, sondern es ist immer alles so reingeghostet.
2:21:17
Naja, willst du denn den Typen, der die Kamera hält, willst du den dann tatsächlich
2:21:22
sehen, wenn du dich umdrehst?
2:21:23
Naja, nee, aber 210 Grad wäre geiler so. Also so in dem Bereich ein bisschen mehr.
2:21:34
Diese ganze Frage ist natürlich jetzt auch, was könnten jetzt sozusagen interessante
2:21:43
videografische Angebote werden?
2:21:47
Und was natürlich auf dem Tisch liegt und was Apple ja auch schon macht,
2:21:51
also wo man jetzt schon weiß, dass sie das tun, ist Sport.
2:21:55
Sport interessiert die Leute. Sport findet auf großen Flächen statt.
2:22:01
Sport hat geschehen an vielen Stellen.
2:22:04
Wenn man nur mal schaut, was beim Fußball mittlerweile für einen Aufwand getrieben wird.
2:22:11
Wird und im Falle von Apple ist es so, dass sie jetzt wohl auch bei Basketball
2:22:17
Events mitfilmen, auf diese Art und Weise,
2:22:21
und sie haben auch jetzt diesen Ticketpass, den sie ja schon längere Zeit verkaufen für die amerikanische,
2:22:28
Fußballliga, also die Soccer, nicht American Football, sondern die MLS, die,
2:22:37
Major League Soccer heißt das, aber ich sage halt Soccer dazu.
2:22:44
Und jetzt kann ich dann nur darüber spekulieren, was sie da tun.
2:22:48
Aber sie werden vermutlich dort auch ein Videoangebot machen bei dieser Major League Soccer.
2:22:58
Also sie werden das mit Sicherheit mit ihren stereoskopischen Kameras,
2:23:02
so wie sie diese Dokus machen, werden sie jetzt auch diese Sportevents machen.
2:23:06
Und das Ganze hat nochmal eine andere interessante Dimension,
2:23:09
weil beim Fußball, also in Spanien ist es zum Beispiel so, da werden ja heute
2:23:14
schon die Spiele oder zumindest manche Spiele, die großen Vereine.
2:23:21
In der ersten Liga, in der La Liga, werden ja mit sehr viel Kameras aufgenommen
2:23:26
und damit meine ich nicht so acht oder zehn, sondern um das ganze Spielfeld
2:23:30
herum eine ganze Batterie von Kameras oder zumindest um die Tore herum.
2:23:34
Ich weiß nicht ganz genau, wie das an den Längsachsen aussieht.
2:23:37
Und es gibt ja mittlerweile schon so Replay-Mechanismen, wo du dann quasi so
2:23:44
einen Matrix-Bullet-Time-Effekt hast.
2:23:47
Das heißt, du hast eine Torszene, Flanke kommt rein, Stürmer steigt hoch,
2:23:54
köpft den Ball ins Tor. Das wird aber dann aufgenommen von 20 oder 30 Kameras,
2:24:00
die natürlich alle Zeit synchronisiert sind.
2:24:02
Dann kannst du das in der Wiedergabe so machen, dass du halt erstmal die Person
2:24:09
fokussierst, die halt diese Flanke gibt.
2:24:12
Dann geht die Flanke rein und während sozusagen diese Flanke zu dem Stürmer fliegt,
2:24:17
wechselst du deine Betrachtungsposition zu hinter dem Tor und siehst dann quasi
2:24:23
den Stürmer in dem Moment schon den Ball direkt in deine Richtung köpfen.
2:24:27
Und das sozusagen alles als flüssiger Übergang, weil dann eben die Software
2:24:31
dann auch diese Zwischenbilder entsprechend noch gerendert bekommt aus diesem
2:24:35
ganzen Ding, was halt zu so einem kompletten 3D-Modell umgebaut wird.
2:24:40
Keine Ahnung, wie viel Processing-Aufwand das hat. Was ich damit nur sagen will ist,
2:24:44
der Aufwand, der für den Sport getrieben wird, ist heute schon sehr hoch,
2:24:47
um solche scheinimmersiven Effekte zu erzeugen und wenn man das Ganze jetzt
2:24:52
auch noch mit stereoskopischen Kameras kombiniert, wird es natürlich noch irrer,
2:24:57
weil du dann eben dieses ganze Geschehen auch wirklich dreidimensionaler wahrnehmen kannst.
2:25:03
Und im Falle von Fußball würde ich fast sagen, könnte das sogar richtig was
2:25:09
bringen, weil dieses Problem.
2:25:14
Dass man bei langen Bällen nicht genau sieht, fliegt der Ball jetzt gerade in
2:25:18
der Kerze einmal nach oben oder nach unten oder fliegt der gerade 80 Meter in
2:25:24
derselben Achse nach hinten. Du kriegst diese Tiefe irgendwie nicht hin.
2:25:28
Ich weiß nicht, ob das dann mit einer Vision Pro auf einmal besser gelingt,
2:25:33
aber das wird auf jeden Fall ein sehr interessanter Bereich sein,
2:25:36
den es hier noch zu erforschen gibt, wie man das so bringen kann.
2:25:43
Ja, fällt dir noch was ein zu Thema Video und Filme?
2:25:51
Sonst könnten wir auch noch mal kurz über Fotos reden.
2:25:56
Ja, Fotos und die eigenen Geschichten halt, finde ich interessant.
2:25:59
Genau, aber erstmal hat man ja seine Fotobibliothek, die kann man sich natürlich
2:26:02
anschauen, das ist jetzt nicht weiter spannend mit der Ausnahme von Panoramas. Findest du?
2:26:08
Du findest es nicht weiter spannend Ich finde die Fotos so groß,
2:26:12
so scharf sehen zu können, macht schon Spaß Ich hab selten mehr Spaß gehabt
2:26:17
meine Fotolibrary durchzugucken einfach nur so,
2:26:20
Die sind halt lebensgroß, du stehst halt vor den Fotos und du hast halt relativ
2:26:24
gute Fotos von den Leuten, also sind die Auflösungen gut genug Und das ist schon
2:26:28
eine andere Größenordnung, ob ein Porträt jetzt vor dir steht oder ob das klein auf dem Monitor ist Also
2:26:33
ich hab damit mehr Spaß gehabt und auch zum ersten Mal habe ich mir Memories dann auch angeguckt.
2:26:39
Weil die Memories in groß finde ich schön.
2:26:43
Okay, ja, guter Punkt. Na, ich war jetzt besonders von den Panoramabildern beeindruckt,
2:26:50
weil die wiederum auf dem iPhone anzugucken ist halt so, ja,
2:26:57
scroll, scroll, scroll, ganz nett irgendwie.
2:27:00
Vielleicht gibt es irgendwann mal eine schönere Methode, sich das anzuschauen
2:27:03
und das ist halt hier gegeben, Weil dann klickst du halt auf diesen Panorama-Button
2:27:07
da oben und auf einmal wrappt sich sozusagen dieses Bild um dich herum und du
2:27:13
kannst dann in der Mitte drin stehen. Und ich hatte jetzt gerade auch noch so ein paar Panorama-Bilder jüngst bei
2:27:18
meinen letzten Reisen aufgenommen.
2:27:21
So Italien, Blick aufs Wasser, Neapel irgendwie über die Stadt und so.
2:27:25
Und das war dann schon sehr genau so, wie ich das dann in dem Moment auch abgespeichert hatte.
2:27:33
Das fand ich auch. Also Panoramas waren schon mal so eine Größenordnung und
2:27:36
ich hatte auch, so bevor ich nach Amerika ausgewandert bin,
2:27:40
Und damals nochmal eine Bekannte auf Teneriffa besucht, die ist da aufgewachsen
2:27:45
und die hat mich da ein bisschen rumgeführt und da habe ich ein paar geile Panoramas gemacht.
2:27:49
Und dadurch, dass es ein eigenes Panorama war auch noch, war es halt wirklich
2:27:53
auch so diese Kombination von ich bin wieder dort.
2:27:56
Und zwar wirklich so, ich stehe jetzt an diesem Aussichtspunkt von dem Vulkan
2:28:01
auf Teneriffa und ich bin sofort da.
2:28:05
Und dass es nicht 3D ist, war mir gänzlich wurscht, ehrlich gesagt.
2:28:08
Also wenn ich eins machen werde in Zukunft dann von Positionen,
2:28:13
aus denen sich Panoramas ergeben, optisch sinnvoll, werde ich welche aufnehmen,
2:28:17
weil das ist wirklich toll.
2:28:19
Und das hat damit zu tun, dass man selber auch an der Stelle war,
2:28:22
weil ich habe auch wirklich geile, hochauflösende Panoramas von sonst irgendwo
2:28:25
runtergeladen, um sie mir anzugucken, weil ich die so gut fand.
2:28:28
Das wirkt einfach nicht so sehr. Oder auch, was schön ist schon auch,
2:28:32
meine Schwester war im Urlaub gerade und hat ein paar Panoramas geschossen und mir geschickt.
2:28:36
Man hat schon einen Eindruck davon, aber die eigenen Erlebnisse so wahrzunehmen ist es schon nochmal.
2:28:42
Und es ist also Panoramas angucken, also zum ersten Mal so, dass ich denke,
2:28:48
Panoramas sind geil anzugucken auch, weil halt Panoramas ansonsten immer nur
2:28:51
zu viele schwarze Balken oben und unten haben, egal mit was man es irgendwie anguckt.
2:28:56
Jaja, man bereut sofort nicht schon sehr viel mehr Panoramas gemacht zu haben in seinem Leben.
2:29:02
Also das macht wirklich einen riesigen Unterschied. Und das.
2:29:08
Ich habe hier 230 Panoramen auf dem Phone.
2:29:12
Viel Spaß.
2:29:14
Allerdings sind da auch Fotos dabei, die halt einfach von der Aspect Ratio so
2:29:18
sind, dass das Phone dann meint, das muss jetzt ein Panorama sein,
2:29:22
obwohl es ganz offensichtlich nur Text ist. Ja.
2:29:26
Ja, hat sein Für und Wider. ich finde es ganz gut, dass du praktisch nicht so
2:29:30
besondere Metadaten brauchst, damit es in der Kategorie landet,
2:29:33
weil dann verpasst du auch keine und brauchst nicht Magic,
2:29:36
weil zum Beispiel bei den Immersive-Fotos, da brauchst du wieder irgendwelche
2:29:39
Magic, dass du diese 3D machen kannst in irgendeiner Form.
2:29:41
Zwei Fotos, die gleich heißen, kannst du nicht einfach reindonnern.
2:29:44
Das wäre auch schön, dass man so, ich habe nämlich so 3D-Content und ich weiß
2:29:47
noch nicht, wie ich den reinbringe, so dass ich ihn angucken könnte,
2:29:50
weil da kommen wir nämlich zu anderen Geschichten so, sie kann ja jetzt 3D-Fotos, die Vision Pro, aufnehmen und anzeigen. Ähm,
2:30:01
Und die Frage ist, ist es das wert bei den 3D-Fotos, weil es ist halt wie immer
2:30:06
so, ich habe ja damals sogar mal eine App gemacht, die mit dem iPhone 3D-Fotos
2:30:11
aufgenommen hat, mit so einer Apparatur, dass du an der iPhone-Kamera, Poppy hieß das Ding,
2:30:16
zwei Prismen dran machst und dann praktisch ein bisschen das aufspiegelst,
2:30:21
sondern in einem Bild so eine Stereoskope Bilder hast, gemacht hast,
2:30:25
da war damals die Auflösung gerade so gut genug, dass das 3D-Bild,
2:30:28
das da rauskam, Sinn machte. Habe ich hier auch noch die Prototypen davon und die App, die ich geschrieben habe.
2:30:34
Aber die kriege ich jetzt da auch nicht rein. Aber es ist halt auch so ein bisschen
2:30:38
so diese 3D-Bilder, wie die Panovision.
2:30:41
Es hat schon was, aber es ist halt auch immer weniger aufgelöst und es ist so ein bisschen schräg.
2:30:46
Ich weiß es nicht. Ich habe ein paar gemacht jetzt, aber...
2:30:50
Meinst du jetzt die Fotos oder die Videos?
2:30:52
Die Fotos. Die Fotos.
2:30:54
Kann die Vision Pro den Hochkant-Panoramen?
2:30:58
Hochkant-Panoramen? glaube ich nicht, weiß ich nicht.
2:31:01
Weil ich habe so ein paar, wo ich halt das Panorama von unten nach oben gemacht habe.
2:31:06
Wenn du vor so einem Turm stehst oder so und dann das Panorama aber von unten
2:31:11
nach oben machst, sodass du den ganzen Turm drauf hast.
2:31:14
Keine Ahnung. Ich würde mal vermuten, nein, aber don't know.
2:31:21
Ja, also das mit dem Aufnehmen, also die Videos hatten hatten keine wirklich
2:31:29
beeindruckende Qualität, glaube ich.
2:31:33
Also ich bin mir da nicht so ganz so sicher, um ehrlich zu sein.
2:31:36
Und die Wiedergabe war bloß so strange, weil du nimmst nicht so einen Kasten
2:31:41
auf mit so einer klaren 16 zu 9 Kante oder sowas, sondern das ist irgendwie so...
2:31:50
Wie soll man das beschreiben? Also du gibst das wieder und dann hat das alles so ein,
2:31:56
Wolkenrand.
2:31:58
Es hat so ein bisschen einen fassigen Rand. Es ist eigentlich ein quadratischer
2:32:01
Ausschnitt, sowohl bei den 3D-Fotos als auch bei den Videos, die man aufnimmt.
2:32:06
Zumindest wenn man sie mit der Vision Pro aufnimmt, weil man kann ja auch mit
2:32:09
dem aktuellsten iPhone Videos aufnehmen, die haben ein bisschen anderes Seitenverhältnis.
2:32:14
Und die stellen es grundsätzlich in so einem Kasten da, wo du praktisch ein
2:32:19
bisschen, also im Verhältnis zu deinem Fenster im Raum.
2:32:24
Du guckst da praktisch ein bisschen durch und kannst deshalb ein bisschen seitlich
2:32:27
also sie haben es ein bisschen so gemacht, dass es so ein bisschen wabert,
2:32:29
wenn man seitlich rumguckt, damit es auch diesen Stereoskop Effekt ein bisschen mehr hat.
2:32:34
Und du kannst auch da wieder reinzoomen, auf Immersive machen,
2:32:37
dann ist es so ein auch ein bisschen seltsames Erlebnis, weil halt die Auflösung
2:32:40
nicht so super dolle ist. Gleichzeitig ist es, wenn du es selber gemacht hast, also gerade das Video,
2:32:47
ist es ist es schon das hat was ja.
2:32:54
Ja, das stimmt ich habe auch heute nochmal versucht in Vorbereitung von der
2:32:58
Sendung eins zu nehmen, wo ich jetzt die Treppe runter laufe und dann mal raus
2:33:01
gucke und dann mal Klavier spiele um das so ein bisschen um mal so eins zu haben,
2:33:07
wo man ein bisschen was ausprobiert, es ist aber schon mehr ein Gag als wirklich cool, glaube ich also ich hätte
2:33:14
glaube ich schon gerne so Aufnahmen von meinem Kleinen,
2:33:17
aber gleichzeitig will ich nicht mit der Brille von meinem Kleinen so rumherfeln
2:33:20
also dem habe ich das jetzt auch noch vorenthalten weil der soll ja überhaupt
2:33:26
nicht so viel mitbekommen das ist mir zu creepy, Papa wieder mit seinem VHS Videokamera,
2:33:35
also ich muss aber sagen da.
2:33:37
Wären wir jetzt auch nochmal gleich zu kommen ist ja immer die Frage,
2:33:42
Wozu kann man das eigentlich gebrauchen? Ist das jetzt nur so eine Technologiedemonstration,
2:33:46
ist das so ein Gimmick oder ist das vielleicht für irgendwas gut oder gibt es
2:33:50
zumindest Leute, für die das eine besondere Bedeutung haben kann?
2:33:53
Und dieses dreidimensionale Fotografieren und dieses dreidimensionale Video
2:34:01
aufzeichnen, das mag zwar jetzt noch nicht perfekt sein,
2:34:03
aber die Möglichkeit das überhaupt machen zu können ist natürlich für bestimmte
2:34:11
Anwendungen unter Umständen wirklich geil.
2:34:15
Also ich denke halt gerade so, wenn man so Veranstaltungen macht und so Location
2:34:21
Scouting macht oder du bist so auf Wohnungssuche und schaust dir Wohnungen an
2:34:26
und dann versuchst du irgendwie zu fotografieren und irgendwie dir zu merken, wie das ist,
2:34:32
weil du nur sehr wenig Zeit hast, das zu begehen.
2:34:36
Ja, so eine Wohnungsbegehung zum Beispiel.
2:34:40
Da würde ich mir, also wie ich es jetzt sozusagen hätte, dann würde ich mir
2:34:44
dieses Teil aufsetzen und da einfach 3D-Video-Capture-Button drücken und dann
2:34:49
da einfach mal 10 Minuten lang durchlaufen und das komplett aufnehmen.
2:34:53
Weil wenn du dir das dann auf der Brille wieder anschaust, dann kriegst du einfach
2:35:00
so ein gutes Gefühl für die Weite und die Räume und was wo ist und was miteinander da ist und so.
2:35:08
Es ist ein bisschen schwierig, sich zu sehr bewegte Rumlaufvideos auch anzuschauen.
2:35:13
Da muss man aufpassen, dass man da nicht so ein bisschen wonky wird.
2:35:16
Mir ist nie schlecht geworden jetzt bei der Brille, aber es ist schon so.
2:35:21
Also da kann ich mir schon vorstellen, dass hier die Brille auch wirklich eine
2:35:25
unmittelbare Anwendung hat für bestimmte Leute.
2:35:28
Weil das halt einfach die optimale Quick-and-Dirty-Dokumentation von Situationen ist.
2:35:37
Was ist eigentlich mit 360-Grad-Kameras?
2:35:42
Das, was die ausspucken, kann man die sich auch mit der Brille angucken?
2:35:45
Ja, da gibt es auch Certify-Apps davon.
2:35:49
Da kannst du so 360-Grad-Dinger kannst du ein paar dieser Formate dann angucken.
2:35:55
Also Files funktioniert ganz ordentlich auf der Kamera und da kannst du in Files
2:35:59
entweder SMB oder was auch immer anbinden und dann hast du halt da den Input
2:36:03
für deine Apps und es gibt zwei oder drei von diesen VR- und 3D-Apps.
2:36:08
Also wenn du was hast in irgendwelchen Formaten, die es geht,
2:36:10
klappt es auch. Ich habe diese Daten nicht.
2:36:13
Und da YouTube noch keine eigene App hat, ging es da auch nicht.
2:36:17
Und die Side-by-Side-Videos, die ich so hatte, die braucht nochmal Pre-Processing,
2:36:21
ist auch nochmal nervig. Da bin ich noch nicht firm genug, auch in welchen Formaten man das direkt angucken kann.
2:36:27
Weil man will schon, also den Content, den man herkaufen kann,
2:36:31
der funktioniert sofort, als es ist. Und der macht dann schon in dem Sinne Spaß.
2:36:36
Dass es sich selber zusammen gebastelt, ist halt so eine Sache.
2:36:38
Also es gibt eine App, die ganz gut funktioniert.
2:36:41
Die hat Star Trek alle Brücken oder so von allen Enterprises.
2:36:47
Und da hast du halt so eine VR-Ansicht.
2:36:52
Und auch das ist ganz nett. Das macht schon auch Spaß.
2:36:58
Da drin zu stehen.
2:37:02
Ja. So, was haben wir denn noch?
2:37:11
Ich glaube, wir müssen über, FaceTime und diese Personas reden.
2:37:19
Ja, über iSight haben wir auch noch gar nichts fallen lassen,
2:37:22
aber das haben wir auch nicht so viel.
2:37:23
Das stimmt.
2:37:26
Das gehört da auch irgendwie ein bisschen dazu, also bei der Immersion.
2:37:29
Aber ich habe den Anwendungsfall noch nicht so gehabt, weil ich habe die meistens so oft gehabt.
2:37:33
Anwendungsfall für was jetzt?
2:37:37
Diese Situation, wo du die Brille aufhast, aber mit Leuten interagieren willst
2:37:40
oder kannst und dann dadurch, dass die sowohl die Leute durch die Immersion
2:37:44
durchgehen, also wenn du. Also vielleicht nochmal kurz erklärt, wenn wir es noch nicht oft genug gesagt
2:37:50
haben an so einer Stelle, wenn man sich so ausblendet mit der Crown und dann
2:37:54
so ganz einbettet in irgendeine Experience in der Apple Vision Pro,
2:37:58
dann ist es so, wenn Menschen auf dich zukommen, mit dir reden wollen,
2:38:01
dann machen die so ein Loch dadurch und man sieht die trotzdem.
2:38:05
Also man wird nicht komplett aus seiner Immersion rausgeworfen,
2:38:08
sondern es ist so, okay, die gucken dann aus der Wolke raus.
2:38:14
Da wird einfach ein bisschen aufgemacht, wenn die einen angucken und reden.
2:38:17
Und umgekehrt ist es so, dass die wiederum auf der Vision Pro Außen,
2:38:21
auf der Stiebrille, so eine Andeutung von Augen sehen,
2:38:26
die deine Augen sind. Das kommt dann gleich mit der Person nochmal raus.
2:38:30
Aber die halt eigentlich so blurry sind und so ein bisschen,
2:38:33
dass sie nur eine Andeutung sind. Aber dadurch sehen die halt, okay, du siehst die auch. Und dadurch kannst du
2:38:38
diese Interaktion machen. Ich habe es jetzt selber nie in so Kontexten verwendet, wo das relevant gewesen
2:38:43
wäre. Ich habe mir die Augen mal im Spiegel angeguckt, weil da funktionieren die auch.
2:38:48
Und die sind so, ja, sind schon okay. okay, also ich finde die weniger kontrovers,
2:38:53
als die Leute meinen, dass das nichts... Es ist halt, es ist ein Indikator, es ist wichtig in irgendeiner Form für diesen
2:38:58
Anwendungsfall und es wird immer wichtiger, je mehr es von diesen Vision Pros
2:39:02
gibt und je mehr die normal eingesetzt werden.
2:39:04
Also das werden wir in Zukunft noch sehen, glaube ich.
2:39:09
Ja. Aber es ist halt so ein Feature, das sehr unik ist hier.
2:39:11
Und sehr belacht wurde im Vorfeld, aber ich finde es okay.
2:39:14
Also es ist so, das ist ein okayer Weg, weil es geht halt intuitiv, ist es klar.
2:39:19
Wenn da Augen Rausgucken, auch wenn sie ein bisschen creepy sind Das ist halt
2:39:22
die Person Alles andere, was so indirekt wäre Mit einer Leuchte,
2:39:26
sonst irgendwas Würde nicht funktionieren, weil da müsste man Jemandem was erklären erst an der Stelle.
2:39:32
Interessant ist ja auch, wie das Setup Dafür funktioniert, da musst du ja dann die Brille Abnehmen.
2:39:37
Also für die Persona jetzt.
2:39:38
Ja Ja, ist ja nicht nur für die Persona Sondern es ist ja auch für diese Eyesight.
2:39:47
Auch, genau, aber es ist ein Vorgang. Also du machst die ja nicht extra.
2:39:51
Genau, aber damit sozusagen deine Augen überhaupt mal reproduziert werden können,
2:39:56
muss es ja Fotomaterial geben sozusagen von dir,
2:40:02
weil es gibt ja keine Kameras, die jetzt auf deine Augen gehen und sozusagen
2:40:09
die wirklich jetzt filmen, sondern sie werden ja nur simuliert und.
2:40:15
Dazu musst du halt vorher durch diesen Persona-Prozess gehen der dann eben auch für diese,
2:40:21
ja Persona heißt ja, sind diese quasi diese Avatare, die angezeigt werden wenn
2:40:27
du jetzt mit jemandem Facetime machst und du hast diese Vision Pro auf,
2:40:29
dazu nimmst du die Kamera halt ab und dann musst du,
2:40:33
da reingucken, den richtigen Abstand haben, du siehst dann so ein bisschen,
2:40:37
siehst so ein bisschen aus wie so ein Teletubby,
2:40:40
diese Sonnenbaby bei den Teletubbies.
2:40:44
Die Sonne, wo so ein Baby in so Sonnenstrahlen drin ist, so sieht das so ein
2:40:49
bisschen aus, wenn du das Ding vor dich hältst und dann, siehst du erstmal quasi per Video so deinen Minikopf in der Mitte von dieser
2:40:55
Brille und musst den dann sozusagen auch im richtigen Abstand halten und wenn das dann so weit ist,
2:41:01
dann machst du deinen Kopf nach rechts und nach links und nach oben und nach
2:41:06
unten und dann musst du einmal Einmal lächeln, einmal lächeln mit Zähne,
2:41:11
Augenbrauen heben und dann Augen zumachen und das war's.
2:41:16
Das sind sozusagen die Positionen, die dann erfasst werden und daraus berechnet
2:41:21
sich halt auf der einen Seite das, was außen an der Brille zu sehen ist,
2:41:25
wenn Leute dich anschauen und dadurch, dass sie ja dann auch noch so ein,
2:41:30
wie heißt dieses Gitter, was sie da haben, dieses...
2:41:35
Also das Glas ist ja dann nochmal so angeschliffen, dass du tatsächlich in jede
2:41:41
Richtung noch ein anderes Bild abgeben kannst, wie bei so Wackelbildern.
2:41:46
Das heißt, wenn dich einer von links und von rechts anguckt und so weiter, dann.
2:41:52
Lentikular, Lentikular.
2:41:53
Genau, lentikulare Linse, irgendwie sowas.
2:41:56
Also so eine Oberfläche halt, wie bei so einem Wackelbild.
2:41:59
Genau.
2:41:59
Genau das.
2:42:00
Und das ist schon irgendwie auch alles wieder ziemlich beeindruckend, wie das eben so ist.
2:42:09
Und ich kann dir auch mal so ein Foto teilen irgendwie von mir mit diesem Ding drauf hier.
2:42:19
Es ist nicht besonders hell, aber in manchen Situationen ist es gut zu erkennen.
2:42:32
Bei dir funktioniert es sogar erstaunlich gut. Also ich habe es oft so ein bisschen
2:42:36
von dem Blickwinkel her, dass es halt ein bisschen daneben ist.
2:42:39
Also das war zu hoch oder zu niedrig oder so bei Leuten gehabt.
2:42:42
Aber bei dem war es jetzt gut. Bei dem Foto.
2:42:45
Ja, muss ich wieder Kapitelmarkenbild machen. Ja, unbedingt.
2:42:53
Doch, das ist doch alles Arbeit. Genau, und dann kommen wir im Prinzip auch zu diesen Personas.
2:43:00
Ich meine, klar, du hast halt so eine Brille auf dem Kopf, klar kannst du in
2:43:04
dem Moment kein richtiges Bild liefern und deswegen rendern sie das sozusagen
2:43:07
und der Aufwand, den sie hier wieder getrieben haben,
2:43:10
der ist bemerkenswert, weil es glaube ich etwas mehr Aufwand ist,
2:43:15
als man vielleicht denkt,
2:43:19
denn was machen sie jetzt, also ich rufe jemanden per FaceTime an,
2:43:25
Und dann erscheint quasi mein vollständiges Gesicht animiert auf Basis dieses
2:43:30
Fotos oder dieses Recordings, was sie vorher gemacht haben, womit sie wahrscheinlich
2:43:36
dann halt dreidimensional mein Bild abgetastet haben,
2:43:38
mein Gesicht abgetastet haben und eben Fotos davon gemacht haben in verschiedenen
2:43:42
Zuständen, sodass sie dann eben auch Mundbewegungen simulieren können.
2:43:48
Einfach nur aus, du hast mal gelächelt, zweimal, irgendwie das war's.
2:43:52
Und während du halt dann jetzt mit jemandem redest, und da musst du mir jetzt
2:43:57
mal weiterhelfen, Dom, was du denkst, wie sie das machen.
2:44:00
Also wie machen sie diese Mundbewegungen? Das sind ja schon die,
2:44:04
das sind die richtigen Mundbewegungen, die man in dem Moment auch wirklich macht
2:44:09
durch die Kameras nach unten, oder?
2:44:11
Genau, die nach unten Kamera ist sehr weitwinklig, die sieht den Mund.
2:44:14
Und die Augen sind nachgebildet auf Basis des Eye-Trackings.
2:44:19
Ja. Und die Augenbrauenbewegungen, weiß ich nicht, wie die die machen.
2:44:24
Die finde ich eigentlich am interessantesten.
2:44:26
Stimmt, die sind ja auch noch mit dabei.
2:44:27
Die müssen ja irgendwie die Augenbrauen auch innen drin schon ein bisschen filmen,
2:44:31
abgreifen irgendwo. Weil das ist ja nicht Eye-Tracking. Das ist ja dann irgendwie
2:44:34
so die Augenbrauenpartie.
2:44:35
Welche Auflösung hat denn die Eye-Tracking-Kamera und vor allen Dingen welchen Blickwinkel?
2:44:40
Weiß ich nicht.
2:44:40
Keine Ahnung.
2:44:41
Also wahrscheinlich sind die Augenbrauen mit auf der Eye-Tracking-Kamera drauf.
2:44:45
Nein, nein, nein. Die Augenbrauen sind ja komplett hinter der Brille verschwunden.
2:44:52
Du machst doch deine Glubschis da in diese Höhlen rein, da bleibt doch von den
2:44:58
Augenbrauen nichts übrig. Ich glaube, dass sie das einfach aus der Bewegung der Augen ableiten.
2:45:04
Also das, also wie auch immer, es ist totale Magie. Das ist das, was ich sage.
2:45:09
Es ist super, dass du dir das Augenbrauen...
2:45:11
Es ist totale Magie und klar sieht es irgendwie erstmal creepy aus,
2:45:17
gar keine Frage, aber wenn du dir mal vorstellst, was sie da alles zusammenbringen, um das überhaupt zu tun.
2:45:24
Also mal ganz ehrlich, ich habe jetzt schon ganz lange und ganz viele von diesen
2:45:28
Videospielen gespielt, wo man so seinen Charakter machen kann und wo alle versuchen,
2:45:33
automatisch irgendwas zu machen. Also, dass Apple in der Lage ist, so eine Qualität abzuliefern auf dem ersten
2:45:39
Wurf, hätte ich denen nie zugetraut. Also auch von dem, wie es aussieht.
2:45:43
Und es ist auch wirklich gefühlt State of the Art gerade, was so geht für so
2:45:49
einen Scan, den wir mal eben schnell aus der Hüfte schießen.
2:45:51
Also, ich habe eher das Hutabgefühl.
2:45:54
Insgesamt Uncanny Valley, ganz klar, da kann man noch viel machen,
2:45:58
aber ich hätte nicht geglaubt, ich hätte mit Lächerlichkeit gerechnet und es
2:46:06
ist einfach eigentlich schon cool. Es ist ein bisschen uncanny, aber es ist schon cool. Und es hat halt wahnsinnig
2:46:12
viel, also die Art und Weise, wie es dann eingesetzt wird in Facetime,
2:46:16
da kommen wir auch gleich nochmal dazu, die macht es halt nochmal so viel runder.
2:46:19
Also ich finde, es sieht so ein bisschen so aus, wie ich mir das vorstelle,
2:46:23
wie Evangelikale sich das vorstellen, wie sie im Himmel sind.
2:46:28
Also dieses sehr Geblörte mit dem weißen Hintergrund und so.
2:46:34
Es ist schon so, lebst du noch oder weiß ich nicht, facetimest du schon?
2:46:43
So, aber interessant, also mehrere Sachen sind interessant an der Geschichte.
2:46:48
Die eine Sache war, wir haben ja Videos aufgenommen mit der Vision Pro und,
2:46:55
Aber nur mit dem eigenen Capture, mit dem Knopf. Ja, weil Apps sehen den Videostream
2:47:00
nicht, den du selber siehst. Die dürfen das nicht.
2:47:03
Du kannst keine Bilder machen mit der Apple Vision Pro.
2:47:06
That doesn't work for you as App Developer.
2:47:09
Was du kriegst, ist der einzige Videostream, der als Rückwärtskamera gilt.
2:47:15
Also ich habe ja auch diese Tageslicht-App, mit der man auf dem Apple TV was
2:47:20
streamen kann, eine seiner Kameras. Und die kann man auch dafür verwenden. Und da kommt dann der Avatar.
2:47:25
Also diese Persona kommt da praktisch, also auf der Selfie-Kamera ist immer
2:47:31
der Avatar und das ist das einzige Video-Input, das die Apps haben können aktuell.
2:47:36
Nur FaceTime selber kann auch Screensharing machen, aber das ist FaceTime selber,
2:47:41
keine Third-Party-App da auf das. Und das heißt, da läuft halt dieser Avatar einfach und der funktioniert super cool im Raum.
2:47:51
Also der ist so, je nachdem wo jetzt das Gegenüber beim Facetime steht,
2:47:57
man hat also für Facetime, wenn man in der Apple Vision Pro Facetime macht,
2:48:02
kriegt man ein Fenster, also ein Fenster, das dann aus mehreren.
2:48:07
Unterfenstern besteht, mehr oder weniger, mehreren Untervierecken,
2:48:09
aber das ist so eine Ebene, die man irgendwo im Raum platziert und dann hat
2:48:13
man dadurch einen ganz klaren Punkt, wo man Leute angucken kann und wo man praktisch
2:48:18
auch sogar mit den Leuten interagieren kann.
2:48:20
Also einerseits kommt deren Audio aus deren Richtung, das macht es nochmal räumlich und wirklich klar.
2:48:26
Die Mikros von der Apple Vision Pro sind glasklar.
2:48:30
Dadurch, dass sie irgendwie so viele weiß ich nicht, so viele Processing-Mikros haben wollen.
2:48:35
Es ist ein FaceTime-Call, mit der klarste Gesprächs-Call mit der Apple Vision
2:48:40
Pro, den ich den ich je gehört habe. Also das ist wirklich super angenehm.
2:48:47
Und dadurch, dass du die im Raum hast an der Stelle, kannst du halt auch mit denen interagieren.
2:48:51
Das heißt, deine Hände, wenn du auf die Leute zeigst, werden eingeblendet bei
2:48:54
FaceTime vor der Persona an der Stelle. Wenn du dich wegdrehst, drehst du dich halt auch weg von der einen oder anderen.
2:49:01
Also sehen die anderen, wen du anguckst?
2:49:05
Die sehen, dass du halt wegguckst. Also dass du nicht sie anguckst,
2:49:08
mehr oder weniger. Und du drehst dich immer in dieselbe Richtung weg.
2:49:11
Also wenn du in einem Dreiercall bist und weißt, wer die andere Person ist,
2:49:15
hast du schon ein Gefühl dafür, wenn die andere Person, also dass es jetzt die
2:49:20
andere Person ist, die angeguckt wird, ohne dass es Arbeiten ist oder Wegsein davon.
2:49:25
Also alles, alles das macht FaceTime und das macht es schon auch erstaunlich gut.
2:49:30
Dann mit diesen Mimiken und Abtastungen, die halt ein bisschen uncanny sind,
2:49:36
aber doch sehr genau, passt es schon sehr gut.
2:49:42
Ja, es ist schon wirklich Strangeland, aber cool.
2:49:49
Es ist schon irgendwie cool.
2:49:50
Das Strangeland.
2:49:51
Und wenn man jetzt nicht so drin ist in der Geschichte, finde ich auch spannend.
2:49:55
Ich habe meine Eltern angerufen und die haben es erst mal nicht gemerkt.
2:49:59
Also die hatten es halt irgendwie auf dem Laptop. Die haben eh selber die schlechte
2:50:02
Webcam in die andere Richtung und hatten halt irgendwie schlechtes Licht.
2:50:05
Die haben, also ich habe das denen gesagt, dass das jetzt, also die haben gesagt, neue Frisur.
2:50:10
So. aber bis sie dann gecheckt haben, dass das wirklich eine Persona ist oder
2:50:14
halt ein bisschen creepier, hat es gedauert.
2:50:17
Und ich glaube, das darf man auch nicht unterschätzen.
2:50:22
Das ist, glaube ich, schon sehr adäquat und das wird auch noch viel besser.
2:50:26
Selbst mit dem nächsten Update wird es wieder besser und da ist noch viel drin.
2:50:31
Für mich ist, die Zukunftsfragen sind sehr spannend, was dieses Gerät angeht,
2:50:35
weil ich weiß nicht, wann wir da hinwollen, noch nicht, wir sind noch nicht ganz durch.
2:50:39
Ja, bei FaceTime gibt es ja noch so einen anderen Aspekt, weil du kannst ja
2:50:44
außerdem auch noch dein View,
2:50:48
den du hast, sharen, quasi Screensharing und damit anderen Leuten einen Eindruck
2:50:58
vermitteln, wie das vermutlich so gerade ist, was du so siehst.
2:51:03
Also du kannst auch was weiß ich per Airplay auf dem Fernseher und dann kannst
2:51:08
du halt sich zumindest mit Leuten darüber unterhalten, was du da gerade tust,
2:51:11
weil sonst kriegt ja keiner mit, was du siehst.
2:51:14
Wobei dann halt so PIN-Eingaben und so weiter, die erscheinen dann da nicht.
2:51:19
Also das ist halt auch wirklich interessant, da muss ich mich erstmal dran gewöhnen.
2:51:23
Immer wenn man nach einem Passwort gefragt wird und man gibt sein Passwort an,
2:51:26
dann steht das Passwort da im Klartext und da erschreckst du dann erstmal.
2:51:31
So, oh, der Computer zeigt das Passwort ein, während ich das eingebe. Das geht doch nicht.
2:51:37
Aber es sieht ja keiner. Es sieht ja auch keiner.
2:51:41
Also irgendwie habe ich das komplett verstört, dass irgendwie Passwort,
2:51:44
das sind immer diese runden Bubbles, die ich da eingebe.
2:51:47
Ja, man hat auch keine Vorstellung davon, wie ein Passwort ausgeschrieben aussieht.
2:51:53
Das soll mein Passwort sein?
2:51:56
Guckt man das so an, so, hä? Hä?
2:51:59
Das hab ich noch nie gesehen.
2:52:03
Eine Sache, die wir noch gar nicht erwähnt haben, ist, irgendwie ist das Ding
2:52:06
ja auch gesichert und das macht einen Iris-Scan und hat Optik-ID,
2:52:12
also nicht Face-ID und nicht Touch-ID, sondern deine Iris, deine Augen.
2:52:18
Und an sich funktioniert das super, finde ich. Also das braucht ein bisschen,
2:52:22
aber es klappt dann, also geht einfach automatisch und ist genauso wie die anderen IDs von Apple.
2:52:30
Grundsätzlich ist ein bisschen das Problem, wie gesagt, wenn man das Telefon
2:52:32
nicht unlocked hat und die Brille auf hat, dann kann man das jetzt nicht mit
2:52:38
der Brille, mit deinem Optik-ID unlocken im Moment. Das ganze Ökosystem ist
2:52:41
noch nicht komplett rund. Aber so grundsätzlich läuft es wie bei Face-ID.
2:52:47
Das heißt, du musst noch ein, wenn du was kaufst oder so, musst du noch einen
2:52:51
extra Input geben und das ist in dem Fall auf den Auslöser drücken. so.
2:52:56
Also nicht auf die Crown interessanterweise, sondern auf den Auslöser, um es zu bestätigen.
2:53:00
Und ansonsten ist es halt wie andere Biometrie-Geschichten bei Apple auch. Genau.
2:53:05
Ja, interessant wird es natürlich jetzt, Ab wann wird es so eine Art 3D-Sharing geben? Weil du sharest ja nur eine 2D-Ansicht
2:53:12
sozusagen von deinem View gerade. Und was man eigentlich möchte, ist natürlich gemeinsame dreidimensionale Räume teilen.
2:53:20
Ich bin mir gar nicht so sicher, ob das so trivial ist.
2:53:24
Wahrscheinlich nicht, weil wenn du jetzt sozusagen, also man könnte ja sagen,
2:53:27
jemand anderes steigt per Immersion.
2:53:30
Also ich könnte zum Beispiel deine Ansicht jetzt bei mir als Immersion reindrehen.
2:53:35
Das wäre zum Beispiel eine Vorstellung so.
2:53:38
So Immersions-Sharing oder was?
2:53:41
Naja klar, also ich wache.
2:53:42
Dom ruft mich an.
2:53:44
Ist mit mir verbunden und sagt so, hier ist mein Raum, den die Kameras jetzt
2:53:51
erfassen und der ist dann bei dir aber quasi Immersion.
2:53:55
Also ich kann den sozusagen Doms Raum, auf den er gerade schaut,
2:53:59
kann ich mir so einblenden, als wäre das jetzt hier Mount Hood. Gut.
2:54:04
Wäre an sich kein Thema. Müsste ich mich einmal im Kreis drehen,
2:54:07
dann hätte er genug Informationen, um das rüber zu schicken.
2:54:10
So fertig. Wird kommen, glaube ich, in irgendeiner Form.
2:54:13
Es ist halt wahrscheinlich nicht hübsch genug, deshalb mag es Apple nicht.
2:54:16
Aber grundsätzlich wird es gehen.
2:54:18
Aber das stelle ich mir cool vor. Du stehst vor dem Eiffelturm,
2:54:22
dann drehst du dich einmal und rufst jemanden an. Hier, guck mal.
2:54:27
Das ist die andere Geschichte, die ich gerne hätte. Ich würde gerne praktisch
2:54:31
in der 3D-Ansicht einfach von anderen Brille-Seiten fertig.
2:54:34
Gib mir halt das, was du aufnehmen würdest in deinem Immersionsvideo direkt
2:54:38
als Stream. Das hätte ich gerne als Erlebnis.
2:54:42
Was ja schon kurz davor ist, du hast es halt nur flach.
2:54:46
Ja und dann halt die Personas in 3D, aber da wird es wahrscheinlich gleich dreimal
2:54:52
an, Kenny Oder sind die Personas schon an sich dreidimensional.
2:55:00
Das ist ja schon so Du kannst nicht nach links und rechts gehen Ich hab mal
2:55:04
versucht meine Personheit zu verbessern und hab dann,
2:55:06
ich hab gerade lange Haare und ich hab mal,
2:55:09
weil die Frisur so komisch aussah, hab ich die nach hinten gehalten und dann
2:55:12
war meine Schulter praktisch so und da war diese Schulter als 3D-Geschichte
2:55:17
in dieser Persona mit drin und mein Arm hing da immer so irgendwie ab,
2:55:19
wenn ich meine Hände gezeigt habe, es sah ganz creepy aus.
2:55:22
Also die haben so ein gefühltes 3D-Modell von deinem Oberkörper schon mit dem,
2:55:26
was sie erfassen, weil die Finger und Hände haben sie ja dann auch, wenn sie anzeigen.
2:55:30
Also es gibt schon von dem, was sie sehen, es könnte auch mehr sein und interpoliert
2:55:34
werden dann und da gibt es viel, aber was es halt überhaupt nicht gibt, ist,
2:55:40
zusammen interagieren in irgendeiner Form, also sich gemeinsam einen Film angucken,
2:55:43
geht angeblich mit Shareplay, habe ich noch nie ausprobiert,
2:55:45
aber dann siehst du ja die andere Person nicht, dann schaust du nur denselben Film zur selben Zeit.
2:55:50
So, du bist jetzt nicht in so einem gemeinsamen Erlebnis, so wie es bei Facebook
2:55:54
und Quest schon länger geht, auch wenn es ein bisschen gimmicky ist,
2:55:58
aber sowas gibt es halt im Moment gar nicht auf der Plattform.
2:56:01
Und ich weiß auch nicht, ob da bald was kommt.
2:56:03
Naja, bei Apple haben dann wahrscheinlich die Leute aber von Anfang an auch Beine.
2:56:10
Das wäre zu hoffen, ja.
2:56:14
So, aber das FaceTime-Erlebnis war schön so per se und Audio,
2:56:18
fandst du Audio nicht auch klasse? Also ich fand halt schon so die Audioqualität, die so die der so abgreift und Ich hab jetzt nicht.
2:56:25
Glaube ich, nicht so viel FaceTime gemacht, um da wirklich mir eine Meinung
2:56:29
bilden zu können, aber audiotechnisch habe ich sowieso überhaupt nichts auszusetzen an diesem Gerät.
2:56:34
Also das war alles tippitoppi. Jetzt haben wir schon ganz lange über die Vision Pro geredet.
2:56:43
Wir können jetzt vielleicht nochmal so Apps, also es gibt ja abgesehen von dem
2:56:47
Standardkram, gibt es ja auch noch ein paar Apps, die vielleicht schon mal so
2:56:50
ein bisschen zeigen, wo jetzt das frühe Interesse von Entwicklern liegt oder
2:56:56
wo zumindest mit rumgespielt wird. Und die eigentliche Frage, die sich natürlich damit verbindet,
2:57:01
ist, wofür kann man das Ding eigentlich gebrauchen und taugt es überhaupt irgendwas
2:57:05
und warum sollte man sowas überhaupt haben wollen und will man sowas überhaupt haben?
2:57:11
Also ich will sowas zum Beispiel gerade noch nicht haben.
2:57:15
So beeindruckend ich das alles finde, aber das ist ja eben die Frage,
2:57:21
was ist dann sozusagen auch der Nutzen?
2:57:23
Also nicht für 4K. Haben wollen würde ich es schon, aber nicht für 4K.
2:57:28
Ich würde es haben wollen, wenn ich es benutzen will.
2:57:32
Also das ist ja immer so diese Frage, du hast ein Mac, du hast ein iPad oder
2:57:36
hast ein iPhone auf dem Tisch und deine Uhr, so, und jetzt willst du irgendwas tun. Was nimmst du?
2:57:45
Welches Gerät nimmst du als erstes, um irgendwas zu tun?
2:57:50
Oder was tust du, wenn du irgendein Gerät nimmst? Was tust du nicht,
2:57:53
wenn du irgendein Gerät nimmst? Es gibt Dinge, die mache ich am liebsten auf dem iPad.
2:57:57
Es gibt sehr viele Sachen, die mache ich auf dem Mac am liebsten.
2:58:00
Es gibt Dinge, da ist nur das iPhone für gedacht und einen Timer stelle ich
2:58:04
mir am liebsten auf der Uhr. Und genauso müsste es halt irgendwas geben für diese Vision Pro,
2:58:10
wo ich so diesen Urge habe, so jetzt das Ding aufsetzen, weil dann, also vor allem wo man.
2:58:21
Kein Problem damit hat, all diese ganzen Nachteile einzugehen mit der Entkopplung
2:58:26
von der Außenwelt, das Teil mit dem komischen Akku, den du da in der Hosentasche hast,
2:58:31
den du erstmal irgendwie arrangieren musst und dieser komische Clip da und einschalten
2:58:36
und booten und okay, wenn das schon läuft, dann setzt du den auf, dann Optik-ID,
2:58:41
dann bist du auch sofort eingeloggt, dann kann es auch sofort losgehen.
2:58:44
Passt schon alles, aber es ist halt nicht so wie eine Uhr,
2:58:47
die du immer am Arm hast und es ist auch nicht wie das iPhone,
2:58:50
was du mal eben aus der Hosentasche ziehst oder ein Laptop, der dich einfach
2:58:55
auf den Tisch die ganze Zeit anlächelt und sagt, benutze mich oder das iPad.
2:58:59
Die Vision Pro muss immer erst in Betrieb genommen werden.
2:59:03
Du hast immer erst so diesen Aufsetzen, Arrangieren, was mit meiner Frisurbrille,
2:59:10
wie habe ich das richtige Setting. Okay, Und dann hast du sie auf und dann geht es eigentlich erst los.
2:59:17
Es ist also nicht so dieser in einer Sekunde kann ich sofort anfangen mit irgendwas,
2:59:22
sondern das ist auf jeden Fall erstmal eine Prozedur. Und da muss sich natürlich was rufen.
2:59:26
Da muss irgendwas da sein, was du nur da so machen kannst und was es dir dann
2:59:32
natürlich auch wert ist. Sowohl jetzt die initiale Investition in Geld, als auch Wert in dem Moment diesen
2:59:39
Aufwand zu leisten und auch die potenziellen Nachteile einzugehen,
2:59:44
die du natürlich zwangsläufig hast, wenn du so ein Ding aufhast.
2:59:46
Und wenn man sich jetzt mal anschaut, was an Apps derzeit so da ist,
2:59:51
meine Apple behauptet jetzt 600 Apps, keine Ahnung, die Hälfte davon sind wahrscheinlich Clocks.
3:00:00
Also was sind sozusagen jetzt so die Anwendungen, die gerade da sind und die
3:00:08
andere Frage ist natürlich, was sind die Anwendungen, die einen sofort das kaufen lassen würden.
3:00:15
Also was ich mir vorstellen kann ist Anwendungen, die du gut verwenden kannst,
3:00:21
wenn du die Hände nicht frei hast. Wo du dir was anzeigen lässt. Weiß ich nicht, wie es mit der Interaktion ist,
3:00:28
aber im Prinzip Dinge, keine Ahnung.
3:00:33
Kochbuch. Rezept.
3:00:35
Kochbuch gibt es eins und diese Google Glass Reparaturanweisungen und sowas.
3:00:39
Sowas in der Art.
3:00:41
Da hast du halt immer das Problem, das Ding ist zu balki auf deinem Kopf.
3:00:44
Klar, du kannst damit kochen. Also die eine Technik hat du eh gemacht.
3:00:49
Vielleicht nicht die Generation, aber dann später. Also einfach Ich habe die
3:00:54
Hände frei und kann aber trotzdem Informationen abrufen und mich auch gleichzeitig
3:01:00
bewegen und irgendwo hingehen und so.
3:01:02
Also das ist für mich ein Interaktionsmodell, was Sinn machen würde.
3:01:06
Und das zweite ist auf jeden Fall halt auch,
3:01:09
wenn ich irgendwas mit 3D-Druckern mache und vielleicht auch 3D-Modelle dann
3:01:17
entwerfe, dann ist so eine Brille natürlich super.
3:01:22
Super, machst das Modell, du kannst, wenn das entsprechend gut gemacht ist,
3:01:27
sogar auf dem Druckerbad kannst du sehen, wie kommt das Teil da raus,
3:01:33
wie sieht das dann aus, wie groß ist das und mit einem Tab kannst du dann den
3:01:39
Drucker anwerfen, möglicherweise.
3:01:42
Ja, also ich denke alles, was so mit 3D-Modellierung, 3D-Modellerstellung,
3:01:48
also egal ob es jetzt gedruckt ist oder virtuell, das funktioniert.
3:01:54
Selbstverständlich werden viele Leute, die so im Bereich Architektur,
3:01:58
Wohnungsvisualisierung, Einrichtungen und so weiter, das sind glaube ich,
3:02:05
Early Adopter potenzielle von dieser Kamera,
3:02:09
weil ich vermute, dass dort im Application-Bereich sehr schnell was passieren
3:02:14
wird, weil es halt teilweise auch Apps schon gibt, die eigentlich nur angepasst
3:02:17
werden müssen und die dann natürlich sofort davon profitieren.
3:02:21
Also ich könnte mir auch vorstellen, so wenn du, weiß ich, so ein CAD-Programm
3:02:25
wie Shaper oder so oder Onshape, wenn du das gut machst, dass du das in der
3:02:32
Brille auch gerne lieber machst, weil das hat diesen 3D, du siehst es halt wirklich.
3:02:36
Und wenn du eh parametrisch arbeitest, dann kannst du halt ein paar Zahlen eingeben
3:02:41
und musst halt nur, das muss halt gut bedienbar sein.
3:02:44
Aber Shaper3D, was Shaper3D auf iPad gemacht hat, das auch für Vision OS,
3:02:48
dann hast du gewonnen eigentlich, weil das ist schon, das willst du haben, das macht schon Spaß.
3:02:52
Was hat denn Shaper3D gemacht?
3:02:55
Ein Interface, das man gut auf dem iPad mit dem Stift bedienen kann,
3:02:58
das intuitiver ist ein bisschen als Autodesk und Shape.
3:03:02
Es hat einfach wirklich eine iPad-spezifische Lösungen gemacht,
3:03:05
mit einem Bedienmodell, das funktioniert.
3:03:08
Und das kannst du halt mit eigentlich mit der,
3:03:13
mit dem Eye-Tracking und den Gesten kannst du es genau genug machen, wenn du es gut machst.
3:03:20
Was ich ein bisschen schade finde, ist, dass Onshape hat eine Vision Pro App,
3:03:25
aber die macht halt gar nichts irgendwie.
3:03:27
Also die ist halt so grottenschlecht, dass ich es nicht geschafft habe,
3:03:30
meine Modelle, die ich mir so gebaut habe, in letzter der Zeit irgendwie in
3:03:35
den Raum zu stellen, weil ich diese App nicht bedienen kann,
3:03:37
weil da geht halt irgendwie nichts. So soll es nicht sein.
3:03:43
Aber das ist schon auch eine. Schon auch eine Zielgruppe für sowas. Es ist aber alles noch Zukunftsmusik.
3:03:51
Es ist wirklich, jetzt aktuell gibt es ganz wenig Apps, wo ich sagen würde,
3:03:55
hey, dafür brauchst du das. Für mich ist es, glaube ich, eher so eine Geschichte, das ist jetzt eine Plattform,
3:04:02
die Apple aufbaut und Apple wird den Atem haben, die zu halten.
3:04:05
Und die wird jetzt noch eine Zeit lang vor sich hin verkümmern,
3:04:08
weil was Geiles zu entwickeln, kostet auch geil viel Geld und so viele Leute
3:04:13
haben jetzt dieses Ding noch nicht, dass es sich lohnt.
3:04:15
Und du kannst ja auch die App nicht für 150 oder noch mehr verkaufen.
3:04:18
Das haben wir ja auch irgendwie den Leuten abgewohnt.
3:04:22
Apps, die ich selber ganz gut finde schon, also wirklich, wo ich jetzt,
3:04:26
ich habe gestern irgendwie einfach mal mindestens eine halbe Stunde auf das
3:04:29
Herz geguckt und habe dann erstmal verstanden, wie so der Flow durch das Blut
3:04:34
ins Herz so funktioniert und durch die Lunge und wieder zurück und so.
3:04:38
Das ist halt eine freie App von diesen Herz-Apps und die Modelle in der Luft
3:04:43
zu haben und anzugucken, ist einfach noch eine andere Qualität als nicht.
3:04:46
Also sämtliche dieser teureren Apps, die jetzt einfach eine im Raum 3D-Visualisierung
3:04:53
von irgendwas, was du brauchst, also als Arzt, einem Menschen oder als Techniker
3:04:57
irgendwie Bauteile oder sonst irgendwas. Also Chick ist zum Beispiel auch wirklich geil, da kannst du dir einfach so
3:05:04
ein 3D-Modell in den Raum stellen, in Originalgröße und dann auseinandernehmen,
3:05:08
die Teile angucken und Texte dazu.
3:05:10
Also das ist schon ein Anwendungsfall, wo so eine Mixed Reality-Brille wirklich
3:05:14
Sinn Sinn macht und das Erlebnis kriegst du nicht anders.
3:05:17
Oder auch die Mars Rover App ist ziemlich schlecht leider, aber den Mars Rover
3:05:21
so im eigenen Zimmer in Originalgröße zu haben, nochmal um zu sehen,
3:05:26
ach, das ist ja doch ein Auto und nicht ein Matchbox Ding, ist einfach,
3:05:30
schau doch mal, es ist eine Klasse von, einfach eine andere Qualität, dass du diese Original-Maßstab-Geschichten hast.
3:05:37
Und für das, was Roddy gesagt hat, alles, was mit 3D-Druck zu tun hat,
3:05:41
da ist Reality Kit und AR Kit so gut, wenn du dem die richtigen Maße gibst,
3:05:46
dann kannst du das im Raum platzieren und es ist einfach genau das so super
3:05:49
geil. Finde ich auch schon cool.
3:05:54
Aber brauche ich es konkret für irgendwas anders außer Spielen? Nee.
3:05:58
Also ich schaue gern damit Filme und so und das wird auch so bleiben.
3:06:04
Ich finde auch ganz gut, mich da zu bewegen dabei. Also dann praktisch so den Screen irgendwie zu haben und dabei aktiv irgendwie zu sein.
3:06:11
Das ist okay, weil das Motion Blur beim Videogucken nicht so blöd ist.
3:06:14
Also ich gucke viel im Stehen und Gehen.
3:06:18
Interessanterweise nicht so viel auf der Couch. Auf der Couch nervt ein bisschen,
3:06:21
dass dass die Klickerkennung und das Chips-Essen sich nicht so gut verträgt.
3:06:28
Und da muss man sich praktisch erstmal die Bedienung ausschalten,
3:06:32
bevor man da entspannt Fernsehen gucken kann.
3:06:35
Also man kann ja auch die Bedienung auf nur linke oder nur rechte Hand stellen.
3:06:38
Da kann man mit der einen Hand Chips essen. Das ist nicht schlecht,
3:06:40
ohne dass da aus Versehen ein Klick erkannt wird.
3:06:42
Oder man kann, und das sind auch ganz coole Features, so die Accessibility-Features
3:06:46
zum Pointer-Control heißt es dann.
3:06:50
Da kann man umstellen, dass man halt nicht mit den Augen arbeitet,
3:06:53
sondern entweder mit dem Handgelenk, das heißt ein Handgelenk zeigt irgendwie,
3:06:56
das andere tippt und dann hast du mehr oder weniger so einen Pointer, so ähnlich wie bei iOS,
3:07:02
also einen Kreis, den du irgendwo anzeigst, wenn du willst, kriegst du auch
3:07:04
den 3D-Strahl gezeigt oder du kannst mit dem Finger zeigen irgendwo drauf oder
3:07:09
du kannst es so ganz hardcore machen, die Mitte des Bildschirms ist dein Zeiger
3:07:12
und dann musst du halt den Kopf bewegen. Das ist für Accessibility gedacht, aber so kann man praktisch Situationen,
3:07:18
die man nur temporär, indem man temporär nicht jetzt mit den Händen so viel
3:07:22
auslösen will oder machen will, überbrücken. Das geht im Moment.
3:07:25
Oder machen kann, ja.
3:07:28
Da hast du dann so ein Fadenkreuz wie bei einem Shooter oder wie ist das dann?
3:07:32
Ne, das ist genauso wie der Mauszeiger bei iOS.
3:07:34
Also das mit dem Kopf?
3:07:36
Mit dem Kopf ist halt in der Mitte, genau da ist nur der Mauszeiger,
3:07:39
iOS Mauszeiger ist so in der Mitte vom Bildschirm und du musst halt den Kopf
3:07:44
dann bewegen Das geht ganz.
3:07:45
Gut tatsächlich also.
3:07:46
Ich hab das mal eingeschaltet.
3:07:47
Das ist okay also ich würde mit Augen ist schneller Mein Genick.
3:07:52
Tut mir da weh einfach nur bei der.
3:07:55
Vorstellung Nee, ist nicht so schlimm weil du eine sehr gute Auflösung hast
3:07:59
auch bei dem Kopfbewegung, du musst da nicht so hektisch hin und her gehen,
3:08:03
das ist eine ganz Ganz einfache Kopfhörungen reichen da schon aus.
3:08:07
Also ich würde es auch nochmal so zusammenfassen, was meiner Meinung nach derzeit
3:08:11
Anwendungen sein könnten und die potenziell in der,
3:08:18
in der Lifetime dieser Version 1.0 vielleicht noch eine Rolle spielen können.
3:08:23
Also nochmal so im nächsten anderthalb Jahr bei Leuten einen Kaufanreiz auslösen könnten.
3:08:29
Und das ist definitiv natürlich ganz klar, das haben wir jetzt schon mehrfach
3:08:32
gesagt, Visualisierung, 3D-Visualisierung, wenn man da in irgendeiner Form einen
3:08:37
Bedarf hat, dann ist das halt einfach ein No-Brainer.
3:08:39
Und Editing in gewisser Hinsicht auch.
3:08:42
Das ist halt irgendwie Architektur, Wohnen, Kunst, also wenn ich das was weiß
3:08:48
ich, für Blinkenlights, machst du eine Kunstinstallation im Raum, willst du irgendwo so was Großes irgendwo
3:08:54
auf so einen Platz bauen, dann wäre es natürlich mega, wenn du eine Software
3:08:58
hast, die sagen kann, so ja, hier zack, Alexanderplatz,
3:09:02
dann das wäre natürlich der Knaller.
3:09:06
Ist auch eine App, die es schon gibt, also für Designer und so weiter,
3:09:09
klatscht dein Design an ein reales Objekt dran und dann musst du halt die Objekte
3:09:13
zahlen, also die hat auch ein Geschäftsmodell, das funktioniert so,
3:09:17
also Also Milchkarton-Design. Da, fertig. Dann hast du Milchkarton in der Hand mit deinem Design.
3:09:23
Ja, okay. Aber das sind ja immer so Objekte. Es geht mir jetzt richtig auch
3:09:26
um diesen ganzen Immersions-Kram.
3:09:29
Objekte und Gegenden auch sind es da. Also Litfaßsäulen und so Zeug auch.
3:09:33
Okay, aber so in die Stadt rein.
3:09:35
Also wirklich so large scale. Wie auch immer. Also es wird es in allen Varianten
3:09:39
geben und ich glaube, dass das einfach das ist dann auch konkurrenzlos.
3:09:45
Also dann ist das einfach auch die die beste Möglichkeit, sich sowas anzuschauen
3:09:49
und ein Gefühl dafür zu bekommen, sind unsere Entscheidungen richtig.
3:09:53
Da kommt es ja manchmal auf so gefühlte Sachen an. Wie groß bauen wir das? Ist das groß genug?
3:10:00
Wirkt das zu wenig? Ist das zu groß? Solche Entscheidungen sind sehr schwer
3:10:05
mit Visualisierung im Zweidimensionalen zu machen, wenn du auch die Bezugsgröße
3:10:11
deiner Umgebung nicht wirklich dabei hast.
3:10:13
Und das ist halt das Coole, dass du sozusagen das zusammenbringen kannst.
3:10:16
Da kann ich mir das also schon vorstellen. Dann eben, was auch schon anklang, so Remote Assistance,
3:10:22
also wenn jetzt irgendwie jemand repariert was und du brauchst aber Expertise
3:10:25
und dann könnte sich jemand sozusagen in deinen View einklinken,
3:10:28
so Streaming, Facetime würde ja in dem Moment schon reichen und du kannst dann
3:10:32
halt auch wirklich auf Dinge vielleicht auch zeigen und markieren oder so,
3:10:36
das ist ja jetzt noch nicht möglich, um Leuten irgendwas beizubringen.
3:10:42
Ja, da kannst du irgendwie in der Ukraine den Piloten da irgendwie noch Assistance
3:10:46
geben oder den Leuten, die irgendwas reparieren, Assistance geben, so eine Sachen.
3:10:51
Also mit Militär will ich jetzt gar nicht erst anfangen, aber generell die Remote
3:10:56
Assistance, ob das dann im medizinischen Bereich ist oder Reparaturbereich,
3:11:00
Technik und im weiteren Sinne, was du ja auch schon erwähnt hast,
3:11:04
so Training, Education. Lernen, 3D-Modelle, interaktive Sachen, Sachen, wo du halt Dinge auseinander
3:11:12
schälen kannst und dir wirklich dreidimensional anschauen kannst.
3:11:15
Das ist ja bei dieser Jig-App auch so, dass du so Teile wegnehmen kannst,
3:11:18
also wirklich vorstoßen kannst in Bereiche und das ist definitiv etwas, was damit geht.
3:11:25
Und dann halt wie vorhin schon erwähnt, Sport denke ich mal,
3:11:30
wird eine Rolle spielen. Mir ist noch nicht so ganz klar, was die beste Sache ist, aber du kannst natürlich
3:11:37
jetzt auch so Stadionperspektiven einnehmen.
3:11:42
Also wenn es möglich ist, sozusagen eine Live-Übertragung mit 180 Grad oder
3:11:49
meinetwegen auch noch mehr. Zu machen und dann hast du eben so diese Stadionperspektive,
3:11:57
was sozusagen den Vorteil hätte, dass du eben das ganze Spiel sehen kannst,
3:12:01
während du heute immer nur so Kamera-Ausschnitt hast.
3:12:05
Oder so eine mega totale, auf der du nichts erkennen kannst.
3:12:09
Aber wenn du nah genug dran bist, um das Detail zu verfolgen,
3:12:12
aber trotzdem jederzeit nach vorne und nach hinten gucken kannst und immer irgendwie
3:12:16
so das Spielfeld beobachten kannst, ich glaube, das könnte ganz interessant werden und das ist auch definitiv ein
3:12:22
Bereich, wo ich vorher eher skeptisch war und wo ich jetzt mir denke, okay,
3:12:27
maybe there's something to it.
3:12:30
Für mich persönlich wäre natürlich die Killer-App Google Earth.
3:12:37
Beziehungsweise fände ich ja mal, jetzt wäre es ja mal Zeit für Apple da mal
3:12:42
Butterbeigefische zu machen, weil die haben ja im Prinzip die gleichen Daten.
3:12:46
Apple Earth.
3:12:48
Also das wäre, das Beste, wobei ich dann so meine Zweifel habe, dass die Eingabemethodiken ausreichen.
3:13:00
Das ist eine gute Frage.
3:13:03
Also da hätte ich schon doch lieber gerne meine Space-Maus.
3:13:07
Was du ja auch machen kannst, also du kannst ja auch eine Maus und eine Tastatur,
3:13:11
also ein Trackpad und Tastatur pairen, du ziehst ja auch durch,
3:13:15
du kannst ja reale Dinge nutzen, das ist ja nicht ausgeschlossen.
3:13:19
Ich meine, das ist auch eine andere Geschichte, die ich noch vergessen habe,
3:13:21
die wir noch vergessen haben, wenn du den Mac pairst,
3:13:24
dann hast du nicht nur auf dem, also wenn du den Mac-Bildschirm verbindest,
3:13:28
dann hast du nicht nur auf dem Mac-Bildschirm deine Tastatur und Maus,
3:13:31
sondern auf allen Apps, die du anguckst,
3:13:35
kannst du auch mit dem Trackpad deine Maus bewegen und das ist halt die klassische
3:13:39
iOS-Maus-Bedienung, die du benutzen kannst und die Tastatur direkt verwenden.
3:13:44
Du kannst praktisch ein Laptop auch als Eingabegerät benutzen für deine,
3:13:49
Vision Pro Apps.
3:13:54
Ja, ich habe so ein bisschen meine Zweifel, dass die Space-Maus noch zu hören
3:13:57
weinkommt bei Apple, aber tatsächlich wäre...
3:14:03
Mir ist die letztens untergekommen, bei den 3D-Modeller-Geschichten ist die
3:14:07
auch ganz happy freund und wird auch unterstützt.
3:14:11
Ja, natürlich, das ist ja die Zielgruppe.
3:14:20
Wenn es möglich wäre, eine Space-Maus in dieses Produkt noch zu integrieren,
3:14:28
also dass man sozusagen ein Ich-Kann-Mit-Meiner-Hand-in-Jede,
3:14:35
in jede Richtung Beschleunigung bewirken.
3:14:39
Das ist ja im Prinzip das, was die Space Mouse macht. Du kannst das Ding ziehen,
3:14:44
drücken, in jede Richtung, Rotation und so weiter.
3:14:48
Also allein als Model Interface, also eigentlich müssen sie das sogar irgendwie
3:14:52
unterstützen, fällt mir dabei ein, weil diese ganzen 3D-Programme brauchen ja
3:14:56
genau das Gleiche, weil da kannst du dann nicht die ganze Zeit irgendwie in der Luft,
3:15:00
rumwirbeln und mit den den Fingern irgendwie rumziehen. Wie sieht denn das aus?
3:15:06
Also, naja.
3:15:08
Ja, mal sehen. Aber da ist noch eine andere Geschichte, die wir jetzt noch nicht erwähnt haben.
3:15:12
Also jenseits der Bedienung, die wir jetzt beschrieben haben und der direkten
3:15:15
Interaktion mit mal drauf tippen, gibt es schon auch noch Handtracking per se
3:15:20
für Apps, die in den Immersionsmodus gehen.
3:15:24
Das heißt, Apps können auch das Handtracking komplett benutzen und eigene Erkennung
3:15:30
machen auf dem Handskelett über ARKit,
3:15:33
aber nur, wenn sie als immersive App die einzige App sind, die gerade am Start
3:15:38
sind. Das ist auch so eine Privacy-Einschränkung.
3:15:42
Und ich muss sagen, dass diese Handerkennung jetzt nicht so berauschend wirkt.
3:15:46
Also die ist schon okay, aber die ist ein bisschen laggy.
3:15:49
Das kann natürlich daran liegen, dass das,
3:15:54
die Art und Weise, wie ich das jetzt mal programmiert habe an der Stelle,
3:15:56
aber ich habe es auch bei den Spielen und bei den Apps so gesehen, es geht so.
3:16:00
Also das ist nicht so schick. Da ist jetzt die Quest jetzt auch nicht schlechter so per se, glaube ich.
3:16:05
Und vielleicht sogar besser.
3:16:07
Und es ist auf alle Fälle dieses direkte Interaktionsmodell mit dem Handskelett
3:16:12
ist so ein schwierigeres. Das ist ein bisschen schade. Also da hätte ich mir noch mehr erwartet.
3:16:19
Glaubst du, wir werden Controller sehen?
3:16:22
Nee, man kann Controller verwenden, aber es gibt keine extra Controller,
3:16:25
wird Apple nicht machen. Also du kannst ja Playstation-Controller und Game-Controller halt verwenden.
3:16:30
Nee, ich rede jetzt nicht von Game-Controllern in dem Sinne,
3:16:33
sondern das, was bei der Quest mit dabei ist zum Beispiel.
3:16:36
Ja, nee. Nee. Also von Apple und der Garantie. So wie sie bei Gamecontroller
3:16:40
am Anfang sich geweigert haben. Also von Apple. Selbst die Unterstützten. Also andersrum.
3:16:49
Es ist technisch natürlich möglich, auch die zu unterstützen, die da sind.
3:16:53
Und ich glaube, wenn sie irgendwas machen, dann, weil sie merken,
3:16:57
der Spielemarkt bricht ihnen weg und wir machen so ein billiges Produkt,
3:16:59
hätten gerne Spiele auch, dass sie den populären Game-Controller unterstützen, der halt diese Form hat
3:17:05
von Flag, also den man halt Third-Party-mäßig kaufen will, wenn es einen gibt.
3:17:09
Aber sie werden nichts selber machen. Die sind da dagegen. Definitiv.
3:17:14
Das glaube ich auch. auf.
3:17:18
Insgesamt, diese Zukunftsgeschichten ist halt schon spannend und wenn wir schon
3:17:22
an der Ecke sind, da würde ich darauf eingehen wollen, von dem,
3:17:24
was du am Anfang gesagt hast, ja beim ersten iPhone und beim ersten iPad und so weiter.
3:17:28
Das Problem ist, das erste iPhone und das erste iPad war im Verhältnis nicht
3:17:32
so viel teurer als der Rest und die nächste Generation muss trotzdem besser werden.
3:17:37
Also die Vision Pro hat ein bisschen das Problem, dass die nächste Generation
3:17:41
technisch definitiv noch besser werden muss als die hier.
3:17:46
Und sie muss irgendwann mal in einem Preissegment ankommen, wo es Kunden hat.
3:17:49
Also das ist im Moment so, das ist ein Luxusgut hoch 10, dass es spannend genug
3:17:55
ist an der Stelle, aber das muss eingedampft werden auf unter 1000.
3:18:00
Ja, welches Feature lassen sie los?
3:18:02
Es darf aber nichts losgelassen werden, wir brauchen alles.
3:18:05
Die Sensoren dürfen nicht schlechter werden, das Audio darf nicht schlechter
3:18:08
werden, die Auflösung darf nicht schlechter werden, also nichts darf schlechter
3:18:13
werden. Insofern, nur die Zeit wird es retten.
3:18:16
Apple hat den Atem, aber ich rechne schon mit zwei bis drei Jahren, bis da eine,
3:18:23
bis dann mehr Massenmarkt kommt. Also das ist so ein bisschen die seltsame Geschichte,
3:18:27
die ich damit finde, weil es ist jetzt schon ein geiles Produkt,
3:18:30
aber kein, nicht geil genug und es hat nicht genug Nischen so an der Stelle.
3:18:35
Also nur über den Atem kann Apple das, glaube ich, wirklich aufrollen,
3:18:40
weil und ich weiß auch nicht, wie viele Entwickler dann bis dahin mitspielen.
3:18:43
Also diese Investitionen zu machen, hier ein externes Produkt für zu machen,
3:18:47
für so einen kleinen Markt, puh.
3:18:49
Ja, schau dir Apple TV an, gibt's ja auch nichts für im Wesentlichen.
3:18:55
Also außer halt diese ganzen Television-Apps, die gibt es halt fürs Apple TV,
3:19:00
aber dann so ein paar halbherzig portierte Spiele.
3:19:05
Aber, ne?
3:19:07
Jaja, bei Apple TV ist das ein anderer Grund irgendwie. Die Plattform hat halt
3:19:11
den Zug da verpasst, im Sinne irgendwie spannend zu sein.
3:19:15
Günstig genug wäre ein Apple TV schon, wenn es Spiele gäbe. Aber das Ding ist
3:19:20
halt nicht günstig genug. Wenn das nicht weniger als 1000 kostet, dann haben das zu wenig Leute dafür,
3:19:24
dass es sich lohnt, große Entwicklungen zu machen für kleines Geld oder in irgendeiner
3:19:28
Form in diesem Apple-Modell. Also da habe ich schon ein bisschen Sorge.
3:19:32
Ich hätte es gerne.
3:19:33
Weil ich finde das Ökosystem, das sie geschaffen haben und auch die,
3:19:37
also nicht das Ökosystem, sondern das Interaktionsmodell, das sie geschaffen
3:19:43
haben, also das, was sie jetzt da hingelegt haben, ist eine Plattform.
3:19:45
Ich würde die Plattform gerne mit Erfolg sehen, aber ich weiß nicht,
3:19:49
bis wann es dauert, bis sie das hat. So, da bin ich nicht so optimistisch.
3:19:53
Naja, ich kann mir vorstellen, also sie haben die erste Vision ja ganz offensichtlich
3:19:58
Pro genannt, weil Pro heißt bei Apple ja nicht Professional, sondern nur teuer.
3:20:03
Und dann kann ich mir vorstellen, dass sie in drei Jahren oder sagen wir zur
3:20:10
dritten Generation dann die nicht Pro bringen,
3:20:14
wo dann ältere Hardware verbaut ist, die halt in der dann dritten Generation
3:20:20
irgendwie immer noch, wo sie immer noch rechtfertigen können,
3:20:25
warum das dann pro Modell immer noch so viel kostet.
3:20:29
Ja, aber was passiert denn bis dahin? Also, ich glaube nicht,
3:20:33
dass es viele Apps geben wird, die da viel investieren. Die Sport, also,
3:20:39
Sportübertragung und so weiter. Es gibt ein paar Nischenmärkte, die machen das wahrscheinlich. Apple selber macht natürlich so,
3:20:45
aber so puh, also ich glaube, ich würde jetzt nicht sagen, hey,
3:20:49
mach mal, also ich selber würde was dafür machen, weil ich es will, weil es Spaß macht, so.
3:20:54
Also, ich empfinde immer so dieses, es gibt ja auch so eine Guitar Hero Style Piano App.
3:21:00
Sowas hätte ich auch gerne gemacht und die ist recht schlecht, die es gibt.
3:21:05
Die auf der Quest ist übrigens relativ gut sogar inzwischen.
3:21:07
Die heißt irgendwie Piano Vision. Aber für den Consumer-Markt ist das halt nicht.
3:21:17
Mal schauen. Es wird spannend. Ich glaube, Apple hat den,
3:21:24
hat den Atem, das durchzuhalten und die werden es machen. Aber ich glaube, es dauert länger.
3:21:29
Es dauert wirklich drei, vier, fünf Jahre, bis das in irgendeiner Form dem Produkt
3:21:33
einfach mal vorhanden ist.
3:21:34
Mit der Zeit ist es schwierig. Wir haben ja diese populären Vergleiche mit irgendwie,
3:21:41
was ist denn sozusagen das Apple-Produkt, was als es rauskam,
3:21:46
so vergleichbar ist mit seinem Stand im Markt.
3:21:51
Und ich würde sagen, Die Lisa eben.
3:21:54
Das ist aber zu lange her, das kann man eigentlich nicht mehr vergleichen.
3:21:57
Ja doch, ich hätte jetzt gesagt der Original Macintosh, weil da war es im Prinzip
3:22:01
genau dieselbe Situation. Sie haben einen unheimlichen Aufwand getrieben, sie haben ein System rausgebracht,
3:22:07
was komplett anders war als alles, was bis dahin galt.
3:22:11
Ja, ein Computer, den du nicht mit der Tastatur über Kommandos steuerst,
3:22:16
der einen weiß-schwarzen Bildschirm hatte mit einer Maus und mit einer Floppy-Disk
3:22:23
und also 3,5 Zoll. Ja, Lisa, also egal.
3:22:27
Wegen dem Preis und der Größe die Lisa und dann der Macintosh ist dann die Vision. Genau. So in der.
3:22:32
Ja genau, könnte man auch noch machen. Aber ich wollte ja darauf hinaus,
3:22:36
was hat dann letzten Endes den Macintosh zum Erfolg werden lassen?
3:22:42
Und das war halt Photoshop und später QuarkXPress.
3:22:48
Desktop Publishing, das ist das Segment, das ist die Tür, die sie aufgestoßen haben, das war das Neue.
3:22:55
Innerhalb kürzester Zeit hattest du in Werbeagenturen und Verlagen überall Macintoshes
3:23:01
stehen während der Rest der Welt von dieser Maschine keine nennenswerte,
3:23:06
Kenntnis genommen hat außer natürlich ein paar Die-Hard-Nerds,
3:23:08
die sich irgendwie jeden Kram kaufen mussten aber das war das Segment,
3:23:13
was sie sozusagen dadurch begründet haben und das haben sie in dem Sinne auch
3:23:16
nicht geplant so wie für den Apple 2 und auch für DOS,
3:23:24
Spreadsheets Visikal und Lotus 1, 2, 3 absolute Treiber waren und überhaupt
3:23:31
erstmal die Legitimation der Existenz ihrer Plattform überhaupt geliefert haben.
3:23:35
Weil es da einfach einen Bedarf gab und weil Leute gesagt haben,
3:23:39
mir ist das scheißegal, was ein Computer kostet, wenn der Zahlen ausrechnen
3:23:42
kann in so einer XY-Spalten-Geschichte, dann kann ich irgendwie,
3:23:47
dann kann ich meine ganze Firma komplett anders betreiben, als ich es bisher
3:23:51
hergemacht habe, ist mir egal, was der Computer kostet.
3:23:54
Multiplan auf dem Apple II war glaube ich das erste.
3:23:58
Multiplan, VisiCalc war glaube ich das erste.
3:24:00
Oder VisiCalc, ja kann auch sein.
3:24:02
Und, Und genau so etwas braucht jetzt auch die Vision Pro, weil Apple hat es sozusagen
3:24:09
platziert als, wir sind zwar irgendwie so ein Headset, aber wir benutzen das Wort gar nicht.
3:24:15
Wir definieren hier eine Computing-Plattform und nicht irgendwie ein Gaming-Device.
3:24:20
Wir haben ein komplett eigenes Interaktionsmodell, wir haben ganz andere Arten
3:24:26
und Weisen, wie das hier bedient wird und so wie wir die Maus erfunden haben
3:24:30
und wie wir Multitouch auf den Markt gebracht haben,
3:24:32
haben wir jetzt hier irgendwie Pinch und also Stimme, Stimme,
3:24:36
Auge und Finger sind auf einmal der Controller für dein System.
3:24:41
Und dann halt so alles in brauchbarer Qualität, genug Sensoren und jetzt ist
3:24:47
es eigentlich so die Wette, die auf dem Tisch liegt mit,
3:24:52
so liebe Entwickler, jetzt lasst
3:24:54
euch mal was einfallen, wir wissen auch nicht, was die Killer ab ist.
3:24:57
Wir haben eine gewisse Idee und wir haben drei, vier, fünf Sachen wie bei der
3:25:01
Watch auch schon rausgeguckt. Erinnere dich, bei dieser Watch, was da am Anfang alles probiert wurde,
3:25:06
hier mit irgendwie Herzschlagteilen und diese ganzen Kommunikationssachen,
3:25:10
die sich nie durchgesetzt haben. Aber am Ende waren halt Notifications allein schon mal ganz interessant und
3:25:16
irgendwie Timer und dann vor allem halt Fitness-Tracking. ging.
3:25:18
Das war halt der Grund, warum sich die Leute diese Uhr gekauft haben.
3:25:21
Sport. Das war halt das Ding. Und das hat diese Watch in den Markt geholt und dann haben sie auch zugesehen,
3:25:30
dass sie da das immer weiter verbessern und dafür ist die halt auch wirklich wirklich gut.
3:25:35
Und genauso wird es jetzt bei der Vision Pro laufen. Es wird irgendwas rauskommen.
3:25:42
Was diese Fähigkeiten dieser Plattform nutzt auf eine Art und Weise,
3:25:48
um dabei was Neues zu produzieren oder irgendetwas auf eine bestimmte Art und
3:25:52
Weise viel besser zu machen, als man das bisher mit was anderem machen konnte.
3:25:57
Und dieser ganze 3D-Modellierungs- und Visualisierungsbereich ist ein heißer Kandidat dafür.
3:26:03
Sicherlich auch irgendwelche Kommunikations-Interaktionsmodelle im Bereich Training,
3:26:11
Education, Kommunikation. Kann ich mir sehr gut vorstellen, dass da irgendwas passiert.
3:26:17
Und vielleicht ist es auch der Sport und vielleicht ist es auch am Ende Kino
3:26:21
gucken. gucken. Vielleicht funktioniert das auch schon. Das ist, sagen wir mal,
3:26:28
dieses Filmgucken ist so die, ich würde nicht sagen, die niedrig hängende Frucht,
3:26:34
aber das ist so, dass das versteht jeder.
3:26:36
Also du musst keinem mehr erklären, warum man Filme gucken sollte.
3:26:39
Also die Geschichte dahingehend sei vielleicht nochmal gesagt,
3:26:43
also der Screen für Filme gucken ist schon extrem gut auch.
3:26:47
Also ich habe ja zumindest davor nochmal versucht mit der Quest 2 das mal zu
3:26:52
machen, die war noch viel zu schlecht, aber die Quest 3 macht auch weniger Spaß.
3:26:57
Also das Mehr an Pixel, das man in der Density hat, ist für Filme gucken schon auch nochmal cooler.
3:27:03
Also es ist schon auch die erste Brille, mit der ich Filme gucken will,
3:27:07
die ich aufgesetzt hatte, weil mit den anderen wollte ich immer nur eher Spiele
3:27:11
spielen, weil das halt ein Novum ist.
3:27:14
Aber mit der will ich auch einen Film gucken, weil die Qualität gut ist, was ich da sehe.
3:27:19
Also ich sehe es ja eher in Interaktion mit 3D,
3:27:23
ob das jetzt Spiele sind oder ob das tatsächlich ich baue CAD-Modelle, ich,
3:27:30
bin in der Lage, die besser im Raum zu verorten und besser zu verstehen,
3:27:35
was habe ich da eigentlich modelliert, wie sieht das aus, wenn es bei mir auf dem Tisch steht.
3:27:41
Das ist für mich der heiße Kandidat.
3:27:43
Aber es ist natürlich kein Massenmarkt.
3:27:45
Ja, aber passiv 2D mit so einer Brille, ja, Ja, das mag zwar ganz nett sein
3:27:51
damit, aber da muss sie schon sehr viel billiger sein.
3:27:56
Filme gucken meinst du?
3:27:57
Ja, Filme gucken. Dafür muss sie schon sehr viel billiger sein,
3:28:00
dass das ein echter Treiber für Verkäufe wird.
3:28:04
Und auch weniger personalisiert irgendwie. Du hast ja wieder dieses Modell,
3:28:08
dass pro Person ein Gerät bitte, und das ist bei der Größenordnung vom Preis
3:28:12
halt einfach nicht okay.
3:28:13
Das ist bei Kommunikation genau das Gleiche. Also ich meine,
3:28:17
wenn sich zwei Leute mit Vision Pro unterhalten wollen und was zusammen machen
3:28:22
wollen, dann legst du erstmal 8.000 Euro auf den Tisch.
3:28:25
Das ist natürlich erstmal irgendwie, ja, muss man irgendwie.
3:28:30
Weißt du auch, es gibt Leute, für die ist das keine nennenswerte Investition.
3:28:35
Ich weiß, solche Leute, aber dann reden wir aber auch nicht von Massenmarkt.
3:28:39
Nee, es geht ja auch nicht erstmal um den…,
3:28:43
Massenmarkt, sondern es geht darum, dass so ein neues, also das mit den Filmen
3:28:47
ist, sagen wir mal, nur so die Reizwäsche, die einen erstmal sozusagen für diese
3:28:53
Plattform, die eine gute Ausrede liefert, sich diese Plattform zuzulegen.
3:28:58
Du kaufst dir diese Brille und dann kannst du Filme gucken.
3:29:01
Und wenn du irgendwie regelmäßig Business Class im Flugzeug fliegst und irgendwie
3:29:07
deine 4-5 Stunden Flüge hast, dann kostet dich das Ding so viel wie ein Ticket.
3:29:12
New York, Paris und das geht sozusagen in deine Gesamtinvestitionen komplett unter.
3:29:21
Das sind halt die Leute, die dann erstmal einfach mal kaufen und die sich da
3:29:25
immer schön einreden können, okay, das reicht mir jetzt allein zum Film gucken.
3:29:30
Jetzt läuft die Zeit weiter und Entwickler kommen halt mit neuen Ideen und dann
3:29:35
ist halt eben die Frage, gibt es so einen Photoshop, VisiCalc, QuarkXPress Moment?
3:29:41
Gibt es irgendwie so eine App, die da halt was definiert und dann kann das eben
3:29:46
diese Kamera in die nächste Generation bringen.
3:29:52
Aber von den Leuten, von denen du sprichst, die haben sich auch damals die Newtons
3:29:57
gekauft und da ist nie was bei rumgekommen.
3:29:59
Ja gut, aber der Newton war auch nicht im Ansatz so gut gemacht wie das Teil.
3:30:04
Also was ich mir wünschen würde an der Stelle wirklich, was diese Reise gewinnen
3:30:10
würde, wäre irgendwas, was praktisch mit diesem Interaktionsmodell im Raum einfach
3:30:16
wirklich was Neues macht. So wie Spaghetti Computing für Shader, sowas für andere. Also es ist wirklich
3:30:23
so, du arbeitest mit einem 3D-Objekt und erzeugst damit geiles Zeug, wie auch immer.
3:30:31
Also so eine App, die es halt einfach noch nicht gibt.
3:30:33
So eine VJ-App, die aber im Raum arbeitet und es mehr Sinn macht, im Raum zu sein.
3:30:41
Ich finde, da hat die Vision Pro Potenzial, weil sie alle Sensoren hat und alle
3:30:45
Auflösungen dafür, sowas zu machen. Aber das gibt es halt noch nicht. Es gibt halt das Programm noch nicht.
3:30:51
Das Äquivalent zu Photoshop für den 3D-Raum gibt es halt noch nicht.
3:30:57
Und das würde ich gerne sehen, das wäre mir am liebsten, weil da warte ich drauf.
3:31:02
Ich warte schon so lange drauf auf so eine größere, das ist jetzt mal eine geile
3:31:07
Sache, die jetzt mit neuer Technologie, nur mit neuer Technologie funktioniert.
3:31:13
Aber das Beispiel Photoshop ist insofern recht schön, du hast ein Tool,
3:31:20
was in der virtuellen Welt funktioniert.
3:31:22
Und du produzierst aber etwas damit, was in der nicht virtuellen Welt verwendet
3:31:28
wird, nämlich das Druckerzeugnis. Und ich glaube, dass die Vision, wenn sie sich beweisen soll,
3:31:37
muss diesen Medienbruch zwischen virtueller und echter Welt hinkriegen.
3:31:41
Deswegen sage ich halt, 3D-Modeling aller Art kombiniert mit Rapid Prototyping,
3:31:48
3D-Drucker aller Art, ist glaube ich ein schöner Knackpunkt.
3:31:53
Wenn Apple diesen Markt irgendwie auch nur halbwegs anknacken kann,
3:31:58
dann haben sie einen Gewinner an der Stelle.
3:32:01
Ich habe so ein bisschen das Gefühl, der ist nicht groß genug,
3:32:04
aber es wäre natürlich auch, es wäre ganz schön.
3:32:09
Ja, aber wie viele Leute haben denn jetzt schon einen 3D-Drucker?
3:32:13
Ich meine, das kommt doch auch immer mehr in den Massenmarkt.
3:32:19
Und wenn die 3D-Drucker erstmal ordentlich im Massenmarkt sind,
3:32:23
dann kommen auch die, wie komme ich denn zu dem Kram, den ich ausdrucke?
3:32:29
Das muss doch auch dann irgendwie mit in den Massenmarkt tröpfeln.
3:32:33
3D-Drucker im Massenmarkt?
3:32:35
Räumst du?
3:32:37
Was, Marc? Du meinst, Saturn verkauft 3D-Drucker?
3:32:42
Würde ich mich jetzt nicht wundern, wenn du bei Saturn in einer Ecke auch 3D-Drucker findest.
3:32:47
Also nur mal, um dich mal in meinen Relativ zu halten, mein Kleiner hat eine
3:32:53
Einladung mit einem 3D-Druck bekommen, so zu einem Geburtstag.
3:32:57
Und ich weiß nicht, wie nerdy die Familie wirklich ist. Ich muss mal nachfragen.
3:33:00
Wirkt er nicht so nerdy? Also es ist erstaunlich, erstaunlich Massen.
3:33:06
Und ich bin mit meinem Neukauf von meinem 3D-Drucker in eine Runde gekommen
3:33:11
und dann war das, ach so, ja.
3:33:13
Also das kommt vielleicht mal so Copyshop-mäßig, dass da die 3D-Drucker rumstehen
3:33:17
und du dann mit deinem Modell da hinkommst und das machst, aber dass das jetzt irgendwie alle machen.
3:33:21
Also es ist mehr Massenmarkt als die Leute, die beim Business-Flug irgendwie
3:33:25
einen Film gucken wollen.
3:33:27
Was?
3:33:27
Also Leute wissen, es ist wie Copyshop früher. Ja, definitiv.
3:33:31
Leute wissen das und nutzen das sowieso.
3:33:34
Man macht es halt jetzt. Man druckt sich halt jetzt 3D-Zeug.
3:33:37
Okay, gut. Da sind wir in der falschen Generation inzwischen.
3:33:41
Wir sind alt.
3:33:42
Im Chat schreibt einer Aldi. Also wenn es 3D-Drucker bei Aldi gibt,
3:33:46
dann ist es Massenmarkt. Es gibt kein anderes Kriterium für Massenmarkt als Aldi.
3:33:55
Konrad verkauft 3D-Drucker. Natürlich Konrad. Konrad verkauft auch Widerstände
3:33:59
und und komplizierte Geräte als so.
3:34:01
Ja, Konrad ist weniger ein Kriterium.
3:34:03
Ja, nee, das muss schon was sein.
3:34:05
Aber wenn die Dinger bei Aldi stehen, dann ist es Massenmarkt.
3:34:08
Also das kann man dann nicht mehr wegdiskutieren.
3:34:12
So, haben wir denn noch irgendwas zu sagen eigentlich zu unserer Headset Experience?
3:34:19
Ich glaube, wir sind so ein bisschen an dem Punkt angekommen,
3:34:22
wo sich nicht mehr sehr viel sagen lässt. Oder es ließe sich noch viel sagen, aber nichts Neues.
3:34:29
Ich weiß nicht, ob wir wirklich noch was haben, was wir loswerden wollen dazu,
3:34:33
also ich find's nach wie vor, also ich find's,
3:34:37
Ich finde es super spannend, vielleicht, es klingt jetzt so negativ,
3:34:40
dass ich den Markt nicht so sehe und was auch immer, aber es ist so,
3:34:43
seit längerem wieder so das erste Produkt,
3:34:49
wo ich sehe, wie geil es noch werden kann, weil alle Aspekte noch viel besser
3:34:53
werden können, so an der Stelle und auch müssen und trotzdem so die Initialzündung
3:35:00
schon so viel Spaß macht, dass es für mich, also es ist so ein,
3:35:04
als Hobbyding ist es irgendwie cool.
3:35:07
Okay, ich gebe auf. Der Chat hat gerade Aldi verkauft, 3D-Drucker.
3:35:12
Du hast es nicht geglaubt, oder was?
3:35:14
Nee.
3:35:15
Das war kein Chat. Also gerade die Bamboo-Geschichten und so,
3:35:19
die haben halt einfach, wenn die so ein Enclosure haben, dann muss man auch wenig können.
3:35:24
Dann halt 3D-Druck, meinetwegen.
3:35:27
Also ich sage jetzt nicht, jeder muss das jetzt machen.
3:35:31
Aber ich sehe das Phänomen schon in der Masse ankommen. Und warum auch nicht? Macht ja sicher Spaß.
3:35:39
Ja, nee, ist in Ordnung. Also vielleicht mal so nochmal von oben herab.
3:35:46
Ist das jetzt sozusagen ein bold Move, den Sie da gemacht haben? Ja.
3:35:53
Ist es etwas, was ich kaufen würde gerade für mich, weil ich für mich da eine Anwendung sehe?
3:36:00
Nee, derzeit noch nicht. Also nichts hat mich jetzt so gereizt und als ich das
3:36:06
Ding, nachdem ich mich 24 Stunden damit beschäftigt habe,
3:36:11
Gab es jetzt nichts, wo ich mir gedacht habe, so, oh, schade,
3:36:15
dass ich die jetzt nicht im Zugriff habe, jetzt würde ich aber gerne nochmal
3:36:18
das, also abgesehen von, ich beschäftige mich damit, um zu verstehen,
3:36:22
was es ist, so einfach so von der Anwendung her,
3:36:25
gab es jetzt nichts, wo ich sagen würde, das brauche ich aber jetzt unbedingt
3:36:31
irgendwie in meinem Leben. Hat auch ein bisschen was damit zu tun, dass ich jetzt nicht so ein extensiver Filmgucker wäre.
3:36:38
Da wäre das schon vielleicht ein bisschen anders. Und natürlich hätte ich gerne etwas, was ist wie Google Earth.
3:36:46
Also ich meine, wenn Apple mal Apple Maps einfach so wie Google Earth baut für
3:36:50
die Vision Pro, dann kaufe ich mir aber eins für jeden Ort.
3:36:55
Wo ich wohne.
3:36:56
Also das ist, ja, verstehst du?
3:36:59
Was machst du da eigentlich immer so drin? Du schaust dir die Erde an,
3:37:03
anstatt sie abzufahren.
3:37:06
Ich, also für mich, mir hilft es einfach sehr, die Welt zu verstehen.
3:37:11
Also ich, wenn ich so News wahrnehme, irgendwas ist irgendwo passiert, dann fliege ich da hin.
3:37:19
Also das fände ich insgesamt auch einen guten Content News mit,
3:37:23
du bist an dem Ort dann ein bisschen, du hast ein bisschen den Kontext im Sinne
3:37:26
von, das sind die Leute da, das sind die Orte, das sind die Gebäude, das ist so die Stimmung,
3:37:32
das ist die Farbe des Himmels oder wie auch immer so als Immersive Experience,
3:37:37
nur damit du nicht nur diese komische Zahl hast oder so.
3:37:39
Also das könnte ich mir auch noch gut vorstellen als, ist ja mehr Education
3:37:45
insgesamt, aber so einfach so als, man will es dann nicht mehr nicht haben.
3:37:49
Wenn man mal irgendwo vor Ort gewesen sein kann, um es zu sehen,
3:37:54
anstatt so ein flaches Fernsehbild, vielleicht ist das was.
3:37:59
Ja, aber ich meine, dass sie... Also das wäre ja geradezu eine Unterlassung, dass sie jetzt mit ihrem Maps-Produkt
3:38:08
nicht irgendwie diese Vision Pro erschließen.
3:38:13
Also wenn sie das nicht kombiniert bekommen, dann können sie den Markt auch
3:38:18
gleich wieder verlassen.
3:38:19
Naja, aber das Maps-Team von Apple sind doch Jagdhunde, die man zur Jagd tragen muss.
3:38:25
Also die sind ja irgendwie immer drei Jahre hinter State of the Art gewesen.
3:38:31
Das ist nicht ganz richtig. Also sie sind bei vielen Sachen vielleicht später.
3:38:35
Wie viele Jahre haben die gebraucht, um die Anzahl der Flughäfen in Berlin richtig hinzukriegen?
3:38:41
Ich glaube zehn oder so?
3:38:43
Ja, gut. Content-Problematik nochmal separat, aber rein von dem visuellen und vom dreidimensionalen
3:38:54
sind sie zum Beispiel deutlich besser als Google Earth. Also klassenbesser.
3:38:58
Ja, okay.
3:39:28
Das mit der Vision Pro zu verbinden. Weil dann kannst du dich halt wirklich,
3:39:33
dreidimensional irgendwo hinbewegen.
3:39:36
Für Vision OS 2 und für Vision OS 3 braucht Apple ja auch noch ein paar Features.
3:39:40
Also jetzt sei mal nicht ungeduldig.
3:39:43
Das wäre sozusagen das Produkt, was ich unbedingt haben will.
3:39:46
Allerdings müssen sie sich wirklich, also ich glaube, der Tag,
3:39:51
wo ich so richtig steil gehe, wäre es, wenn Apple irgendwie 3D-Connection kauft. Das wäre es.
3:39:59
Werden sie aber nicht machen, leider.
3:40:00
Ich sag mal so, zum jetzigen Preis ist es halt immer noch indiskutabel.
3:40:05
Also nicht, dass ich so ein Teil nicht haben wollen würde, aber halt nicht zu dem Preis.
3:40:10
Mit Google-Ads kaufe ich das auch für 5.000.
3:40:17
Naja, ich weiß nicht genau, wo der Cut-Off ist und ich glaube,
3:40:21
ich will da auch nicht genau drüber nachdenken. Aber es muss ja auch ein Apple-Gerät geben, was ich nicht, wo ich nicht Early
3:40:30
Adopter bin und das gleich kaufe.
3:40:33
Genau.
3:40:34
Also ich meine, ich hatte das erste iPhone, ich hatte das erste iPad und habe ich auch immer noch.
3:40:42
Ich hatte die erste Apple Watch, die habe ich nicht mehr. Ich hatte den ersten iPod.
3:40:46
Also irgendwie ähm.
3:40:50
Gerade den ersten iPod hatte ich nicht. Ich glaube, nur die Watch habe ich als erstes gekauft.
3:40:57
Ich weiß noch, dass ich damals am Überlegen war, jetzt mal so einen MP3-Player
3:41:04
mit Festplatte haben zu wollen.
3:41:07
Und habe dann hin und her überlegt, die Geräte waren alle irgendwie nicht so richtig meh.
3:41:12
Und dann kam Apple mit dem iPod.
3:41:14
Und ich so, scheiße, den musst du jetzt haben. Und der war ja auch geil.
3:41:20
Auf jeden Fall. So, dann lass uns doch mal den Vision Pro Teil beenden.
3:41:27
Ja.
3:41:28
Wir haben jetzt, unsere tausend Stunden Freakshow auf jeden Fall zusammen.
3:41:35
Auf jeden Fall voll, ja.
3:41:36
Und ich war dabei.
3:41:37
Ein bisschen drüber, du warst dabei, genau. Wir haben uns gar nicht gemerkt,
3:41:41
wie wir durch diese Schallmauer durchgebrochen sind.
3:41:44
Nee, und das ganz ohne Outliner.
3:41:47
So, aber Aber wer wollte denn von euch jetzt nochmal über 3D,
3:41:51
jetzt haben wir schon so viel 3D-Drucker als die Verheißung der Zukunft gesprochen?
3:41:58
Ich bin ein bisschen durch.
3:41:59
War das dein Thema?
3:42:01
Ich? Ja, ich habe mir den spontan irgendwie, ich habe von einem Bekannten mal
3:42:05
einen alten 3D-Drucker ausgeliehen und habe so ein bisschen Lunte gerochen und
3:42:09
habe mir überlegt, ich will mal wissen, wie der aktuelle Stand der 3D-Drucktechnik so ist.
3:42:14
Was kauft man denn da so und hab mir dann bei Aldi gibt es da gerade was genau,
3:42:20
empfehlen lassen den Prusa MK4 der da noch mit,
3:42:26
Warteliste war und dann kam der doch viel früher als gedacht und dann kam der
3:42:30
praktisch zwei Wochen vor der Vision Pro daher und dann hat mich der links hinten
3:42:34
überrascht und seitdem hat der rund um die Uhr durchgedruckt dann,
3:42:36
also einen zum selber aufbauen sogar, also eher nicht so Massenmarkt mäßig Ja.
3:42:41
Aber mehr so Ikea oder?
3:42:44
Nee, also was heißt Ikea? Ja schon, von der Anleitung, die Anleitung ist sehr
3:42:48
gut, aber acht bis neun Stunden baut man den so zusammen.
3:42:52
Okay, willst du das machen?
3:42:56
Ich habe mir die genaue Dauer nicht so genau durchgelesen und ich dachte mir,
3:43:02
das ist ja doch noch so ein manuelles Produkt, wenn man es dann selber zusammengebaut
3:43:05
hat, weiß man wenigstens, wo die Probleme sind, weil ich kenne 3D-Drucken ja nur mit Problemen.
3:43:10
Also wir haben damals, Martin hatte damals mal von irgendeinem Kongress den
3:43:15
ersten Maker-Bot oder den zweiten so gefühlt mitgebracht und den haben wir dann
3:43:20
in der Cave mal aufgebaut und dann haben wir ungefähr drei Drucke hinbekommen,
3:43:23
bis der irgendwie eingeschmolzen ist, weil wir waren alle nicht so aktiv,
3:43:27
den zu pflegen und bis der irgendwie auf dem Druckbett dann wirklich auch gehaftet
3:43:31
ist und so. es war dann ganz cool, aber hatte keinen Sinn.
3:43:35
Und da habe ich mir gedacht, das ist doch jetzt anders, dann hatte ich den kleinen
3:43:39
vom Bekannten und habe dann eben so ein bisschen ausprobiert und dann hatte
3:43:43
ich es auch schon ein altes Modell und das ist eigentlich inzwischen alles schon
3:43:45
viel angenehmer, weil was der Prusa macht ist und die,
3:43:50
moderneren 3D-Drucker ist, man muss die nicht mehr so fein fiddelig justieren,
3:43:53
sondern man steckt einfach was rein und dann startet man den Druck und man muss ein bisschen die Werte,
3:43:58
in den Programmen einstellen, so dass sie passend zu dem Druckmaterial ist, was man benutzt.
3:44:03
Aber man muss jetzt nicht mehr das Druckbett irgendwie anheben und dann die
3:44:06
Temperatur ausprobieren und den ganzen Scheiß machen.
3:44:09
So, und dann druckt man halt Dinge. Und das macht erstaunlich viel Spaß.
3:44:13
Und die Welt der CAD-Programme hat sich auch massiv verändert.
3:44:17
Also wie ich vorher schon gemeint habe, Shaper. Onshape ist irgendwie sogar ein Web-Tool, mit dem man parametrisch...
3:44:26
CAD machen kann und geiles Zeug sofort, wenn man weiß, was man macht,
3:44:30
geht es in Nullkommanix. Die Programme sind alle besser geworden.
3:44:34
Es ist ein Spaß. Es ist ein Rabbit Hole. Es ist wirklich so,
3:44:38
zwei Wochen hat dieser Drucker durchgedruckt. Und jetzt ist er schon langsam so ein bisschen eine Bremse drin.
3:44:45
Aber ich habe mir zum Beispiel so das hier gemacht für meine Vision Pro. Was ist das hier?
3:44:50
Das ist so ein in die Vision Pro kommt in der Verpackung mit so einem Karton runden Dings.
3:44:56
Damit die Vorderseite da wo dein Gesicht drauf ist, auch abgedeckt ist.
3:45:01
Wenn du die Vision Pro rausnimmst kriegst du im Umfang, wenn du nicht die teure
3:45:06
Tasche gekauft hast, nichts um das irgendwie zu transportieren oder,
3:45:10
zu schützen, außer so ein Verhüterli, der so vorne auf der,
3:45:15
Glasscheibe sitzt, genau so ein Socken, aber die Innenseite mit den Linsen ist
3:45:18
einfach, die ist einfach offen, also die kannst du irgendwie jetzt so nicht in die Tasche stecken oder so oder
3:45:23
einfach nur rumlegen lassen und da habe ich mir so ein Inlay gedruckt,
3:45:25
das man da drauf legt damit, wenn irgendwie Dreck runterfällt oder es nicht
3:45:28
einstaubt oder man halt auch das Gefühl hat, es verkratzt nicht die Linse, die sauteuer war und,
3:45:34
das konnte ich mir halt einfach zusammendrucken, indem ich das ein bisschen
3:45:36
ausgemessen habe und ein bisschen dann so, CAD gemacht habe das hat Spaß gemacht,
3:45:42
und die meisten Drucke funktionieren einfach, wenn man es machen will und es hat halt diese.
3:45:48
Nach wie vor den Nachteil, dass man halt mit der Art und Weise des Drucks arbeiten
3:45:53
muss, das heißt Das heißt, es gibt halt die Schichten, mit denen das Zeug läuft
3:45:56
und man muss halt die Stärke des Materials in die richtige Richtung machen und
3:46:00
das verschiedene Plastik. Aber es ist halt alles jetzt ein gelöstes Problem geführt. Also wenn ich jetzt
3:46:05
irgendwas machen will, kann ich es machen. Zum Beispiel kleine Elektronikbauteile auch. Also ich habe auch noch Lust,
3:46:11
da was schöne Enclosures für zu machen. Also die,
3:46:15
Da wird viel passiert und das selber machen zu können hat für mich den Unterschied
3:46:18
gemacht, weil jetzt habe ich es halt einfach ausprobiert.
3:46:20
Ich habe die zwei Wochen lang immer was gedruckt, dann habe ich es ausprobiert,
3:46:22
ein bisschen was gemacht, ein bisschen was selber gemacht und jetzt habe ich
3:46:25
so innerhalb dieser zwei Wochen schon genug Selbstvertrauen,
3:46:30
dass ich jetzt irgendwie so Reparaturzeugs machen würde.
3:46:33
Würde für, da ist man, da fehlt man ein Plastikteil von irgendwas,
3:46:37
dass ich das schnell nachbaue und dann einfach mal schnell drucke.
3:46:40
So. Und das ist einfach, ich kann das jetzt, ich hab das jetzt was,
3:46:44
ich kann da jetzt Zeug hervorheben.
3:46:45
Du hast da was Eigenes sozusagen.
3:46:47
Genau, so ein Jodel-Diplom.
3:46:49
Das ist jetzt.
3:46:50
Das 3D-Jodel-Diplom. Also,
3:46:57
keine Ahnung, ich weiß nicht, ob ihr so Spaß an dem Zeug noch habt oder nicht,
3:47:01
also auf dem Kongresso und im Umfeld sieht man ja so Zeug immer rumhängen und
3:47:04
rumlaufen, aber selber nochmal zu haben.
3:47:07
Ich habe mich jetzt sehr lange mit Händen und Füßen gewehrt,
3:47:11
einen 3D-Drucker anzuschaffen, aber ich glaube, ich komme langsam nicht mehr dran vorbei.
3:47:16
Weil das ist wieder so ein Rabbit Hole. Vor allen Dingen das Schlimme ist,
3:47:20
es gibt ja inzwischen auch alles,
3:47:23
was man damit macht, also so Lebensmittel echtes Filament zum Beispiel,
3:47:31
wo man halt dann auch mal keine Ahnung, Sachen drucken kann,
3:47:35
die man irgendwie, weiß ich nicht, beim Brauen brauchen könnte oder so.
3:47:43
Es gibt kaum noch Argumente dagegen. Das ist echt ein Problem.
3:47:50
Ich frage mich immer, wie viele Dinge ich eigentlich wirklich so zu ersetzen und zu reparieren habe.
3:47:56
Aber klar, es gibt immer mal so Plastikteile, die brechen und dann ist es schwierig,
3:48:00
die zu kleben und dann so, aber wie oft ich dann auch wirklich in dem Moment
3:48:05
so einen Drucker zum Einsatz bringen könnte, erfolgreich,
3:48:10
da habe ich doch echt meine Zweifel.
3:48:13
Also ich hätte es halt auch nicht gemacht, wenn ich nicht Lust runtergeleckt
3:48:17
hätte, einfach so, okay, wie ist denn die aktuelle Situation mit 3D-Druckern?
3:48:20
Um einfach diese Einschätzung, okay, gibt es die bei Aldi und macht das Sinn
3:48:23
für Leute, um die einfach haben zu können und ja, also du kannst mit so einem,
3:48:29
relativ robusten Drucker und ein bisschen was aus dem Internet runterladen,
3:48:33
dir sinnvolles Zeug drucken, das können die Leute jetzt, die Geräte sind gut genug und,
3:48:39
das wollte ich alleine wissen Und jetzt habe ich mich genug informiert wieder
3:48:43
und jetzt werde ich mit dem so lange glücklich, wie ich ihn verwenden werde.
3:48:48
Keine Ahnung. Also die Recherche ist passiert. Die sinnvollen Dinge kommen jetzt
3:48:52
dann später in kleineren Dosen wieder.
3:48:54
Aber du hast noch nicht gesagt, warum es jetzt genau der Drucker sein musste.
3:48:59
Das war einfach nur so die grundsätzliche Recherche.
3:49:03
Aber grundsätzliche Recherche heißt ja, du musst ja auf irgendwelche Punkte
3:49:06
gestoßen sein, die dann gesagt haben, das Modell muss es sein.
3:49:10
Also, du hast einerseits die Ecke...
3:49:16
Ist es jetzt eher so ein fertiges Produkt, das du dann nicht reparieren kannst,
3:49:20
so wie ein Bamboo oder eher so, wie du halt so einen Drucker kaufst,
3:49:24
den du dann wegwirfst, wenn er kaputt ist? Oder ist es eher noch in dieser Makerboard und so weiter Gedankengut,
3:49:33
wo auch Teile selber noch 3D gedruckt sind und du es eben noch zusammenbaust
3:49:37
und reparieren kannst und ersetzen kannst und wo es sich auch mit der Zeit verbessert?
3:49:40
So, das ist so die eine Achse, an der man arbeiten kann und Prusa ist da einfach
3:49:44
relativ umtriebig, was das angeht. Prusa selber verwendet die massiv und hat die einfach im Einsatz,
3:49:54
das heißt, die sind einfach, die gehen nicht so schnell kaputt und die sind
3:49:57
auch wirklich gepflegt und das ist jetzt nicht ein Produkt für einen Consumer
3:49:59
in irgendeiner Form, sondern von einer Ecke von Leuten, die auch wollen,
3:50:03
dass die Dinger lange funktionieren. So, das war so, das ist ein Ding, das hält eigentlich oder kann man reparieren
3:50:09
oder kann man sich dann Zeug nachkaufen.
3:50:12
Es ist eher noch so, diese MakerBot-Tradition selber finde ich halt auch noch
3:50:17
schön, weil ich halt so ein bisschen mehr aus dieser, ich will mehr verstehen
3:50:20
um das Zeug drumherum Ecke komme und da gibt es da einiges.
3:50:26
Und das war es dann eigentlich schon, weil es gibt noch einige andere, aber das war halt,
3:50:32
die Ecke und die letzte, die mir noch wichtig war, war eben dieses,
3:50:38
der kann einfach drauf losdrucken, nachdem er aufgebaut worden ist,
3:50:43
also der hat der muss nicht mehr eingestellt werden auf seinem Bett und das
3:50:47
Bett muss man gerade ausrichten so, damit irgendwie der erste Layer funktioniert,
3:50:51
sondern der hat einen Mechanismus, wo er mit mit seiner Nase auf den Layer fährt und das misst.
3:50:55
Und das macht er jedes Mal und dann
3:50:57
klappt es auch. Du musst nur unten die Bildplatte putzen und das war's.
3:51:02
Und es wurde bestätigt, dass das viel so ist. Und so eine Mischung aus Convenience
3:51:07
und noch im alten Spirit fand ich gut.
3:51:10
Deshalb ist es der geworden, genau. Es gibt noch einige mehr,
3:51:13
aber ich meine, das ist so ein Rabbit Hole. Ich habe mich nicht super tief reingegraben.
3:51:17
Das war so an der Oberfläche. Aber ich bin sehr zufrieden mit meiner Entscheidung. Also der flutscht.
3:51:23
Das Einzige, was ich nicht unbedingt empfehlen würde, das Ding selber aufzubauen,
3:51:27
weil man halt sich schon beim Aufbauen ein bisschen was kaputt machen kann und
3:51:30
habe ich natürlich auch wieder, weil irgendwie die Kugellager von den Stangen,
3:51:34
wenn man die da durchdrückt, da kann man schon aus Versehen mal Kugeln rausdrücken
3:51:37
und das weiß man halt nachher, dass man das falsch gemacht hat, mehr oder weniger.
3:51:41
Und auch wenn es vorher beschrieben wird, wenn man es zum ersten Mal macht,
3:51:44
macht man es halt ein bisschen nicht so dolle. Es war gut genug, dass er sauber noch funktioniert, Aber so ein,
3:51:51
zwei Kugellager sind jetzt weniger toll, als sie sein könnten,
3:51:54
dadurch, dass ich es selber gemacht habe.
3:51:57
Okay, verstehe ich. Wenn man, ja, machst du es ja eigentlich richtig.
3:52:03
Ich bin so ein bisschen Weichei, was diese ganze Tinkerei betrifft.
3:52:07
Da brauchst du immer einen sehr langen Anlauf für mich, bis ich mich da wirklich
3:52:12
mal reingelehnt bekomme.
3:52:15
Also ich hätte gerne, ich habe ein bisschen Lust, ein bisschen was mit Elektronik
3:52:18
zu machen und die wird halt nur dann hübsch, wenn sie eine Enclosure bekommt.
3:52:22
Da musst du dann selber drucken und designen. Also ich habe halt jetzt,
3:52:24
das Letzte, was ich gemacht habe, war so ein ein E-Paper-Display in den Bilderrahmen
3:52:29
gesteckt und dann klebt es halt hinten mit,
3:52:33
doppelseitigem Klebeband und Kabelbindern dran und das kann ich nicht,
3:52:38
das kann ich nirgends woanders hinstellen als hier im Raum.
3:52:41
Wenn ich da aber einen Enclosure drumrum mache, dann hat es einen USB-Stecker
3:52:44
und dann sieht das aus wie ein schickes Ding. Also so, weißt du?
3:52:48
Und da ist halt auch was, was ich gesehen habe, wenn du es mit genug Zeit druckst,
3:52:54
dann ist halt auch das Plastik hübsch genug inzwischen.
3:52:56
Also es ist nicht mehr so, dass du diese Schichten und Rillen und alles siehst,
3:52:59
sondern wenn du das mit genug Zeit drucken lässt, dann ist die eine Seite auf
3:53:03
dem Druckbett super glatt, die Oberseite kannst du super glatt bekommen und
3:53:06
wenn du es ein bisschen mit Geschmack designst, hast du einfach ein schönes Teil.
3:53:11
Das ist nicht mehr so, das hast du ja selbst gehäkelt.
3:53:15
Ja, aber selbst häkeln ist ja auch schön.
3:53:18
Mach ich ja auch, aber ist wieder was anderes.
3:53:21
Nichts gegen Häkeln. Nee? Gut Leute, wollen wir es da enden lassen heute Jetzt haben wir schon wieder
3:53:33
unser 4-Stunden-Programm so gut wie durch,
3:53:39
Oder? Ja Wir haben.
3:53:42
Die 1000 Stunden.
3:53:43
Geknackt Das muss jetzt reichen Genau,
3:53:49
Also naja Also alle jetzt an die 3D-Drucker gibt es bei Aldi und demnächst mit
3:53:56
der Vision Pro auf dem Kopf.
3:53:59
Ich weiß nicht, ob ich solche Produkte bei Aldi kaufen will,
3:54:03
aber das muss ja jeder selber wissen.
3:54:04
Da gebe ich auf jeden Fall sofort zu. Habe ich schon wieder einen Trend verpasst?
3:54:11
Ist nicht gedacht, dass das da auf dem Regal liegt.
3:54:18
Bresser 3D.
3:54:21
Keine Ahnung, ob der was taugt, aber Aldi ist meistens schon irgendwie okay.
3:54:24
Ja, Aldi ist vor allem seiner Zeit auch immer irgendwie voraus.
3:54:28
Das muss man ihm mal lassen. Ich kaufe da trotzdem nicht gerne ein, aber so ist das halt nun mal.
3:54:35
So, also. Dann ist jetzt die Gelegenheit, sich artig zu verabschieden.
3:54:41
Wir hören uns ein paar Wochen wieder.
3:54:44
Bei mir dauert es ein bisschen länger, aber ich höre euch weiter zu dann.
3:54:48
Okay, dann sagen wir Tschüss Tschüss. Bis bald.
Podchaser is the ultimate destination for podcast data, search, and discovery. Learn More