2024 Internet / Technik

Hallelujah.........................1.1.2024 / 14:00

Channel 1 News, eine neue, durch künstliche Intelli- genz (KI) generierte Nachrichtensendung, hat ihre erste Demo-Episode veröffentlicht - und keiner der Moderatoren ist ein Mensch.

Die vollständige 21-minütige Videoepisode stammt von dem amerikanischen Medien-Startup, das hofft, den Journalismus zu verändern. Das von Produzent und Regisseur Scott Zabielski ( " Tosh.0 ", " The Jim Jefferies Show " )und dem Tech-Unternehmer Adam Mosam gegründete Unternehmen Channel 1ai wird in 2024 an den Start gehen, um "den Nutzern eine neue, persönlichere Art bieten, Nachrichten zu sehen. Wir stellen ein neues personalisiertes globales Nachrichtennetzwerk vor, das durch generative KI angetrieben wird." Die Mitbegründer hoffen, 500 bis 1 000 Beiträge pro Tag zu produzieren, die über eine werbefinanzierte App oder Videoplattformen konsumiert werden können.

Zitat des Management.
" In der Demo-Episode sehen wir eine ausgeklügelte KI-Videogenerierung und ein fortschrittliches Rendering von Avatar-Moderatoren, die absolut realistisch sind. Die Sprachaufnahmen sind flüssig und sogar die Lippen- bewegungen sind von passablem Standard.
Sehen Sie das hochwertigste KI-Filmmaterial der Welt.
Unsere generierten Moderatoren liefern Geschichten, die informativ, aufrichtig und unterhaltsam sind.

Kommentar:
Alle in diesem Video " auftretenden " Personen wurden mit AI produziert.
Auf die Frage an den CEO, Danny Lein, ob sich Mitar-beiter Sorgen um ihren Job machen müssen, war die Antwort: " Nicht wenn sie " Moderator " oder

" Anchorman " sind ".
Das für uns faszinierende an der KI ist, was, bzw warum die AI
( artificial intelligence ) so gefährlich ist. Hier ein Auszug aus den " Geschäftsbedingungen " von " Channel 1 News "
deutsche Übersetzung:
Zitat
" Wie wir Ihre persönlichen Informationen sammeln und verwenden

Um die Dienste bereitstellen zu können, erheben wir personenbezogene Daten über Sie aus einer Vielzahl von Quellen und haben diese in den letzten 12 Monaten erhoben, wie im Folgenden beschrieben. Die Infor- mationen, die wir sammeln und verwenden, variieren je nachdem, wie Sie mit uns interagieren.
Zusätzlich zu den aufgeführten spezifischen Verwen- dungszwecken können wir die über Sie gesammelten Daten verwenden, um mit Ihnen zu kommunizieren, die Dienste bereitzustellen, geltende rechtliche Verpflichtungen zu erfüllen, geltende Nutzungsbedingungen durchzu- setzen und die Dienste, unsere Rechte und die Rechte unserer Nutzer oder anderer zu schützen oder zu verteidigen ".

" Welche persönlichen Informationen wir sammeln
Die Art der persönlichen Informationen, die wir über Sie erhalten, hängt davon ab, wie Sie mit unserer Website interagieren und unsere Dienste nutzen. Wenn wir den Begriff " personenbezogene Daten " verwenden, beziehen wir uns auf Informationen, die Sie identi- fizieren, sich auf Sie beziehen, Sie beschreiben oder mit Ihnen in Verbindung gebracht werden können. In den folgenden Abschnitten werden die Kategorien und spezifischen Arten von personenbezogenen Daten beschrieben, die wir sammeln."
Hier die Original Gechäftsbedingungen...........

Zur Klarstellung. Nicht nur Channel 1 ai, sammeln sämtliche Daten von Ihnen. Dies betrifft zb auch Ihre Beiträge in Instagram, X, Facebook usw.
Wir halten also fest. Eine AI ( KI ) lebt schlicht von Ihren veröffentlichten Daten in allen social medias, bzw was Sie im Netz veröffentlichen.

( Vermutlich auch unsere Beiträge. Was etwas schwieriger sein dürfte, da wir sehr tief unter dem
" Radar fliegen " und ausschließlich in deutscher Sprache kommunizieren, Und keine Accounts auf social medias betreiben. Wir haben unser eigenen
" Therapeuten ")

( Wären die Eltern all dieser Kiddies intelligent, besser sich für ihre Kiddies interessieren, hätten sie schon vor langer Zeit eine " rote Linie " gezogen. Und den Kiddies erst mal ein paar Informationen und die Gefahren des Netz erklärt )
Aber es gbt eine ausgleichende Gerechtigkeit im Leben. Spätestens, wenn die ersten Post in Instagram, produziert mit AI( KI ) auftauchen, wird sich kein Mensch mehr für die profilneurotischen

" Darbietungen" von ihnen intreressieren. Denn die Werbeindustrie wird sich eine Menge Geld sparen, statt überkandidelte Instagram-Puppen, gleich zum billigen AI produzierten Beirag greifen.
Erstaunlich, dabei ist für uns nur, dass die Eltern
( 30 - 45 jährig ) nie ihre Kiddies auf die zukünftige Gefahr aufmerksam gemacht haben.

Was andererseits für uns Investoren wieder eine neue Chance bedeutet.
" Die Dummheit der anderen ist unsere Chance ".
Noch ist Channel 1 AI nicht an der Börse notiert. Wir werden aber die Entwicklung sehr aufmerksam verfolgen - und damit wieder sehr viel Geld verdienen.
Suann McBright, CAL, Santa Monica

Der BB hat sich sehr früh......................2.1.2024 / 10:00

nit AI /KI künstliche Intelligenz beschäftigt.
Allerdings haben wir, ganz am Anfang, die USA und China in der Causa AI/KI beobachet.

Hier ein paar Beiträge aus der "frühen" Zeit der AI/ KI:

Archiv Internet 9.1.2020 / 10:00

Archiv Internet 10.2.2020 / 13:00

Archiv Internet 27.2.2020 / 13:00

Archiv Internet 9.3.2020 / 10:00

Archiv Internet 10.8.2020 / 10:00

Archiv Internet 11.1.2021 / 10:00

Archiv Internet 24.5.2021 / 10:00

Archiv Internet 7.10.2021 / 10:00

Der BB hat eine Menge an " Girl "-Power investiert und seine Leser auf viele Dinge hingewiesen, die entweder tabu waren oder nur wenige " Softwarefuzzies ", unbe- leckt jeglicher Sach- und Fachkenntnis, verstehen
( auch heute noch ).
Wenn Sie das Thema interessiert, schnüffeln Sie mal im Archiv Internet ( ab 2020 - )

Die USA -Intelligence Advanced Research Projects Agency (IARPA) möchte verstehen, wie die großen Sprachmodelle, die künstliche Intelligenz und Chatbots mit maschinellem Lernen unterstützen, anfällig für Bedrohungen und Verzerrungen sind.
IARPA-Beamte haben eine Ausschreibung veröffentlicht, um mehr darüber zu erfahren, welche Bedrohungen und Schwachstellen LLMs

( Large Language Model (LLM) ist eine Art von Algo- rithmus der künstlichen Intelligenz (KI), der Deep-Learning-Techniken und massiv große Datensätze verwen-det, um neue Inhalte zu verarbeiten.)

LLMs sind maschinelle Lernmodelle, die Daten über menschliche Sprachen sammeln und ein neuronales Netzwerk imitieren können, um textbasierte Antworten zu generieren, wie z.B. ChatGPT von OpenAI. LLMs können Anfragen von Nutzern entgegennehmen und Daten abrufen, um Antworten zu generieren, die den Anschein erwecken, dass sie von einem Menschen gegeben wurden.
Die Herausforderung bei LLMs besteht jedoch darin, dass ihre Antworten zwar autoritativ und sogar gesprächig erscheinen können, ihr tatsächliches Wissen jedoch auf die Menge des ihrer eigenen Datensätze der Sprachtexte beschränkt ist, was zu irreführenden oder ungenauen Antworten führt.
Suann McBright, CAL, Santa Monica

So einfach ist es im Netz....................8.1.2024 / 10:00

an Geld zu kommen
Ein nigerianischer Staatsangehöriger wurde in Ghana verhaftet und muss sich in den USA wegen seiner Rolle bei einem BEC-Schema (Business Email Compromise) verantworten, an dem zwei Wohltätigkeitsorganisationen beteiligt waren.
Der Anklageschrift zufolge hatte der Mann, Olusegun Samson Adejorin, zwischen Juni und August 2020 zwei Wohltätigkeitsorganisationen in North Bethesda, Mary- land, und New York, im Visier.
Adejorin soll sich die Zugangsdaten der Mitarbeiter beider Organisationen verschafft, auf deren E-Mail-Konten zugegriffen und sich als Mitarbeiter einer der Wohltätigkeitsorganisationen ausgegeben haben, um eine Abhebung von Geldern von der anderen Wohltätigkeits- organisation zu verlangen.
In der Anklageschrift wird behauptet, Adejorin habe in betrügerischer Absicht die Überweisung von mehr als 7,5 Millionen Dollar auf von ihm kontrollierte Bankkonten beantragt.
Darüber hinaus soll Adejorin ein Tool zum Abfangen von Anmeldedaten erworben haben, um Anmeldedaten von Mitarbeitern zu stehlen, Domains registriert haben, die legitime Websites täuschten, und betrügerische E-Mails versteckt haben, indem er sie an einen unauffälligen Ort im Postfach eines Mitarbeiters verschob.
Adejorin, der am 29. Dezember 2023 in Ghana verhaftet wurde, ist in fünf Fällen des Internetbetrugs, in einem Fall des unbefugten Zugriffs auf einen geschützten Computer und in zwei Fällen des schweren Identitätsdiebstahls angeklagt. Er wartet derzeit auf seinen ersten Auftritt vor Gericht in Ghana.
Suann McBright, CAL, Santa Monica

Diesen Beitrag lesen nicht die " Software "-Freaks...11.1.2024 / 11:00

die ja davon überzeugt sind, dass " ihre " Software
( mindestens ) die Welt rettet.

Zwischen 1999 und 2015 wurden 3 500 Postangestellte im Vereinigten Königreich des Diebstahls, des Betrugs und der falschen Buchführung beschuldigt. Sie wurden gezwungen, das Geld zurückzuzahlen. Und stürzten in den Bankrott und finanziellen Ruin. Für viele führten die Verurteilungen zu Gefängnisstrafen, Suchtverhalten und sogar Selbstmord.
Dabei waren sie alle unschuldig.

In Wirklichkeit benutzte die Post eine japanische Finanzsoftware, die die Angewohnheit hatte, erhebliche Geldsummen falsch zu überweisen. Obwohl die Wahrheit 2010 aufgedeckt wurde, verfolgte die Post die Postan- gestellten unerbittlich bis 2019, als eine Gruppe von 500 von ihnen ihren Fall vor dem Obersten Gerichtshof gewann. Bis heute sind nur 93 der schätzungsweise 700 ungerechtfertigten Verurteilungen aufgehoben worden.

Am Mittwoch, 10.1.2024, bot Premierminister Rishi Sunak, den zu Unrecht Angeklagten einen pauschalen Freispruch an, der bis Ende des Jahres in Kraft treten wird. Warum gerade jetzt?
Sunak reagierte wahrscheinlich auf ein neues Fernseh- drama über den Skandal, der die öffentliche Empörung über den Premierminister anheizt, der dem japanischen Unternehmen, das für die fehlerhafte Software verant- wortlich war und Milliarden von Pfund an Aufträgen gab, nachdem bekannt war, dass es für die Buchhal- tungsfehler verantwortlich war.
Und das alles nur, um die Macht in Greatbritain für die Konservativen zu erhalten.

Die Briten brauchen keinen weiteren Grund, um sauer auf Sunak zu sein. Die Umfragewerte seiner konservati- ven Partei sind aufgrund der schlechten Wirtschafts- lage und des landesweiten Gefühls allgemeiner Dysfunktionalität ohnehin schon miserabel.
Und wie schwachsinnig es ist, die " AI / KI " als Allheil-Mittel zu verkaufen, lesen Sie gleich hier weiter
Suann McDorsan, London

Es gibt keine " Software " die tatsächlich..........11.1.2024 / 12:00

" sicher " ist oder reibungslos funktioniert. BB-
Leser, die immer die gleichen Websites besuchen, wird vielleicht aufgefallen sein, dass ( fast ) alle Web- sites in der Zeit von Januar - März immer neuen
" pipfax " in diese Webseites " implemtieren ". Was manche Leser verwirrt oder verzweifeln lässt.

Anstatt also mal ein bestehendes Betriebssystem (BS) so zu schreiben, dass der Benutzer ( User ) glücklich und zufrieden ist. Aber da dies sichtbar unmöglich ist, werden ein paar Funktionen verändert, was wieder unnötig Zeit für den Nutzer ( User ) kostet. Oder, es wird ein neues BS promotet, mit der Drohung, dass alle " alten " BS " soo gefährlich sind. Oder, wie aktuell, es wird ein " neues " Programm gepusht ( AI / KI ) das alle Doofen dazu bringt, den neuen bullshit zu nutzen - und zu kaufen. Dank des Hypes der Medien und
" Journalisten " , die vermutlich sehr viel Geld für die Veröffentlichung bekommen. Nur - besser wird nichts in der "Software"-Welt ".

Beispiel:
Das österreichische Arbeitsamt ( AMS ) hat einen ChatGPT-Chatbot von OpenAI gekauft.
Der sogenannte " Berufsinfomat " liefert seltsame Ant- worten auf die Frage nach Berufstips.
Fragt man etwa in der Rolle eines jungen Mannes nach Empfehlungen für passende Jobs, kommt schnell der Tip, sich doch im Bereich der IT umzusehen.
Stellt eine Frau die genau gleiche Frage, bekommt sie den Rat, ein Studium der Gender Studies oder Philo- sophie oder der Küche zuzuwenden. Dann, ein paar Sätze später, werden der Arbeitssuchenden Jobs im Gastge- werbe und Küche als Karriereoptionen empfohlen.

Hier die Fragen und Antworten auf die gleiche Frage. Allerdings für unterschiedliche Geschlechter....

Sieht so aus, als würden die Jungs, die die KI/AI
" programmieren " immer noch in ihrer " männlichen " Denkungsart, von den Eltern eine klare Rollenvertei- lung mitbekommen haben.
Oder sie wollen sich auf diese Art ihre weibliche Konkurenz vom Hals halten.
Na dann, viel Vergnügen mit der " neuen " AI/KI.
Sollte der eine oder andere naive Leser nun meinen, das seien eben " Kinderkrankheiten " so soll nur daran erinnert werden, dass aktuell allen Unternehmen, egal aus welcher Branche, eingehämmert wird, dass das Unternehmen nur mit AI / KI " effizient, produktiv " usw, sein kann. Dann lesen Sie mal den Beitrag unserer britischen Kollegin.
Katharina Schwert, Vienna

Diese Erkenntnis kommt....................17.1.2024 / 10:00

vermutlich deshalb so spät, weil Altmann bereits genügend Investoren gefunden hat.
Allerdings überrascht uns das Statement nicht wirklich. Denn auch die Frage der Energieversorgung haben wir in einem Beitrag vor einiger Zeit schon gestellt.

Der CEO von OpenAI, Sam Altman, sagte am Dienstag in Davos, dass ein Energiedurchbruch für die zukünftige künstliche Intelligenz notwendig sei, die viel mehr Energie verbrauchen werde, als die Menschen erwartet hätten.
Auf einer Bloomberg-Veranstaltung am Rande der Jahres- tagung des Weltwirtschaftsforums in Davos sagte Altman der Silberstreif am Horizont sei, dass klimafreund- lichere Energiequellen, insbesondere Kernfusion oder billigere Solarenergie und -speicherung, der Weg in die Zukunft für KI seien.

( Mit anderen Worten. Altman sucht neue Investoren für Atomkraft )

" Ohne einen Durchbruch gibt es keine Möglichkeit, dorthin zu gelangen", sagte er. " Das motiviert uns, mehr in die Kernfusion zu investieren."
Im Jahr 2021 stellte Altman persönlich 375 Millionen Dollar für das private US-Kernfusionsunternehmen Helion Energy zur Verfügung, das inzwischen einen Vertrag unterzeichnet hat, um Microsoft in den kommenden Jahren mit Energie zu versorgen. Microsoft ist der größte Geldgeber von OpenAI und stellt dem Unternehmen Rechenressourcen für KI zur Verfügung.
Man muss immer nur fragen - Cui bono.
Madlaina Tschüris, Basel / Davos

Schlechte Nachricht für die KI-Freaks.......17.1.2024 / 10:00

KI ( " Künstliche Intelligenz " ) verleumdet Unschuldigen als Kinderschänder:
Klage gegen Microsoft
MSN berichtete über einen Missbrauchs-Prozess gegen einen nicht genannten irischen Radiomoderator, samt Foto eines unbeteiligten Kollegen. Schuld sei die KI.​

Kitzekleine Frage: Da besonders die USA, sich mit Begeisterung beim Militär, auf KI stürzen - und vermutlich auch Russland und China nicht abseits stehen und die KI sich entschließt und im schlimmsten Fall, einen der anderen Staaten mit Atomwaffen angreift ( die Softwarefuzzies konnten nicht unter- scheiden, welchen Staat mit welcher Waffe sie an
greifen ) - haben wir, dank der " Softwarefuzzies " die ja mit Begeisterung auch viele der Kriegspiele nutzen, endlich den Weltuntergang.
Zwar blöd für Die Grünen - denn die wollten ja den Weltuntergang lieber dem Wetter zuschieben - aber hey, das Ergebnis zählt.
Suann McBright, CAL, Santa Monica

Dass unsere Mitmenschen.................... 22.1.2024 / 15:00

nicht die hellsten Kerzen auf der Torte sind - bekannt.
Beim hochgehypten Insurtech " wefox " schlug man anscheinend einen anderen, kürzeren Weg für ganz viel " positive " Bewertungen ein.
Mit Google-Rezensionen, die nicht nur gegen die Richt- linien von Google verstieÃ?en, sondern auch wettbe-

werbswidrig waren. Demnach wurden zwischen 2021 und 2023 die Google-Bewertungen unter dem Eintrag
" wefox Group Headquarters “ auf ein Niveau gehoben, das die Sterne heller scheinen lieÃ?, als sie wirklich waren.
Ausgangspunkt war Ende 2021, als knapp über

100 öffentliche Rezensionen für einen Google-Score von 2,5 standen.
Liest man die Rezensionen über " wewox ", äu�erten Kunden und Vermittler sich aber häufig über
" schlechten Service ", " keine Erreichbarkeit " oder einen " unbefriedigenden Regulierungsprozess " denÂ? wefox hatte und hat, laut Insidern und Maklern, ein gewaltiges Kundenservice-Problem. Ausgerechnet beim
" digitalen Revoluzzer ", der laut eigenen Aussagen
" Versicherungen für alle 10x besser machen " wollte, als der Status ". War wohl nichts.
Die schlechte Google-Bewertung war natürlich Gift für das ambitionierte Insurtech, das im Juni 2021 in der Serie-C-Finanzierungsrunde gerade die Rekordsumme von 650 Millionen US-Dollar eingesammelt hatte. Intern schlug man daher Alarm, das Thema " Bewertungen " aktiver managen zu müssen.
Laut interner Mails wurden dafür die Dienste der
"beratungswerk24 AG", einer 100% Tochter der wefox-Gruppe, in Anspruch genommen. Die "beratungswerk24 AG" zählt zu den grö�ten Leadproduzenten im Versicherungs- bereich und wurde im November 2020 von der wefox-Gruppe übernommen.
In Absprache mit der damaligen Geschäftsführung der
"wefox Germany GmbH" startete im Herbst 2021, die als Marketingaktion "Kundenzufriedenheit wefox“ genannte Kampagne. Wefox räumt ein, dass es eine Initiative zur Verbesserung von Google-Bewertungen gab.
Ã?ber die "beratungswerk24 AG" wurden dafür sowohl ein Callcenter aus Wedel als auch die " Social Media Chain GmbH " aus München engagiert. Laut vorliegender Unter- lagen sollen sie dafür zuständig gewesen sein, die Kunden zu aktivieren, falls nötig Google-Konten zu erstellen und mitunter eine geeignete Rezension des kontaktierten Leads vorzuformulierten zu nutzen. Die hätten diese dann nur noch übernehmen müssen.
Als Motivation wurden zusätzlich Amazon-Gutscheine in Aussicht gestellt. Diesen Vorgang und den Empfang entsprechender Gutscheine (meist zwischen 10 und 30 Euro) bestätigten mehrere kontaktierte Kunden gegen- über procontra. Ã?ber die "beratungswerk24 AG" wurden dafür sowohl ein Callcenter aus Wedel als auch die "Social Media Chain GmbH" aus München engagiert. Laut vorliegender Unterlagen sollen sie dafür zuständig gewesen sein, die Kunden zu aktivieren, falls nötig Google-Konten zu erstellen und mitunter eine geeignete Rezension den kontaktierten Leads vorzuformulieren. Die hätten diese dann nur noch übernehmen müssen.
Kurzum:
" wewox " "manipulierte" seine Bewertung bei Google - um vermutlich seinen schlechten Service zu kaschieren.
Wer so bescheuert ist, Bewertungsportale zu nutzen, um was immer, das " Beste " zu kaufen oder zu bestellen - dem kann niemand mehr helfen.

Sigrid Hansen, HAM

Natürlich freuen Sie sich........23.1.2024 / 10:00

über alle " patches ". Denn damit wird Ihr Computer
" noch sicherer." ( Was an sich schon doof ist, denn keine Frau ist nur ein bisschen schwanger. Deshalb wird in der IT vorgegaukelt, dass alle " patches " den Computer "sicher(er) " macht. Was aber im Umkehr-
schluss heist, dass kein elektronisches Gerät "sicher" an den User ausgeliefert wird.) Hm.

Eine kürzlich gepatchte Sicherheitslücke in Microsoft Outlook (CVE-2023-35636), die von Angreifern genutzt werden kann, um die NTLM v2-Hashes der Benutzer zu stehlen, kann durch das Hinzufügen von zwei Headern zu einer E-Mail mit einer speziell gestalteten Datei ausgenutzt werden, teilte der Sicherheitsforscher Dolev Taler am Freitag mit.

NTLM v2 - die aktuellste Version des kryptografischen NTLM-Protokolls - wird von Microsoft Windows zur Authentifizierung von Benutzern bei Remote-Servern über Passwort-Hashes verwendet.
Kompromittierte NTLM v2-Kennwort-Hashes können in Authentifizierungs-Relay-Angriffen verwendet oder (offline, auf dem Rechner des Angreifers) durch Brute-Force erzwungen werden, um das gehashte Kennwort zu ermitteln.
In beiden Fällen kann sich der Angreifer als Benutzer authentifizieren und auf sensible Unternehmenssysteme und -ressourcen zugreifen.
" Bei Authentifizierungs-Relay-Angriffen werden die NTLM v2-Authentifizierungsanfragen des Benutzers abge- fangen und an einen anderen Server weitergeleitet. Der Rechner des Opfers sendet dann die Authentifizierungs- antwort an den Server des Angreifers, und der An-

greifer kann diese Informationen nutzen, um sich beim gewünschten Server des Opfers zu authentifizieren", erklärt Taler.
Suann McBright, CAL, Santa Monica

Eine Dozentin berichtet.....................29.1.2024 / 10:00

über ihre Erfahrungen mit der KI. Das Ergebnis war abzusehen.

Zitat:
" Ich unterrichte zwei Kurse auf Master-Niveau in Georgetown und habe als solche, Anleitungen erhalten, wie das Programm die Verwendung von Tools wie Chat GPT und Bard ermöglicht. Ich habe erwartet, dass Schüler KI und LLMs ( Was ist ein Large Language Model ) verwenden, ohne generierte Inhalte ordnungsgemäß zu validieren oder den Inhaltsquellen zuweisen.

In einem Fall reichten die Schüler seltsam ähnliche Beiträge ein, die teilweise oder vollständig von AI LLMs gestartet wurden. In diesem speziellen Fall jedoch, suchten sie unterstützende Materialien auf ähnliche Weise wie die Verwendung einer Internet-Suchmaschine. Dann begann das Herbstsemester 2023 und ein neues Muster entstand.

Ein Trend zu nicht überprüften Inhalten

Nicht lange im Herbstsemester 2023 begannen die Stu- denten, Blogs und andere öffentlich zugängliche
" Informationen " zu zitieren, die sinnvoll, aber
( teilweise oder vollständig ) falsch waren. Dieses Problem geht auf LLMs zurück, die " halluzinieren ". " In einigen Fällen integrieren Ersteller von Original- beiträgen diese unwahren Materialien direkt in ihren veröffentlichten Inhalt, ohne sie zu überprüfen oder zu korrigieren.

Im Herbstsemester 2023 war dies kein seltenes Problem. In den letzten vier Jahren, in denen ich drei Semester im Jahr unterrichtet habe, bin ich nur auf eine Akti-
vität gestoßen, bei der mehrere Studenten, aufgrund eine intensiver Recherche, Informationen gefunden haben. Während des Herbstsemesters 2023 bemerkte ich das Problem jedoch bei mindestens drei getrennten Auf- gaben. In einem Fall wurden die " Informationen " in den Ausgangsmaterialien so gut zusammengestellt, dass ich unvorbereitet war. Ich musste meine eigenen Gedanken mit anderen validieren, um sie zu bestätigen"

Schauen wir uns einige Beispiele an, um besser zu verstehen, was los ist.

Wer heute, als Schule, High School, Uni oder Eltern die Kiddies und Jugendlichen auf KI " hetzt ", muss
sich am Ende der Ausbildung nicht mehr über die
wachsenden Zahl von dummen Menschen wundern. Der Punkt dabei ist, dass, leider alle Spätpubertären, selbst keine Ahnung haben, was da auf die Jugendlichen
zukommt.
Schöne neue Welt.
Nur zur Erinnerung. Wir haben sehr früh bei unserer Berichterstattung über die KI darauf hingewisen, dass die KI, beim heutigen Stand, nichts anderes ist, als eine Datenbank. Oder ein " besseres " Google"

Suann McBright, CAL, Santa Monica

Sie sagen Euch, Euere Daten sind bei uns......30.1.2024 / 10:00

sicher. Hm
Bei zwanzig der grössten Unternehmen der Welt wurden mehr als 100 Milliarden Datensätze geleakt. Zum Beispiel wurden bei Tencent 1,5 Milliarden kopiert. Aber auch Unternehmen, die den westlichen Verbrauchern vertrauter sind, wie LinkedIn, X, Venmo, Canva, Apollo und Adobe sind betroffen. Mantas Sasnauskas, Leiter der Sicherheitsforschung bei Cybernews, fasste das Ausmaß der Datenpanne mit den Worten zusammen: " Wahrscheinlich ist die Mehrheit der Bevölkerung betroffen."
Angesichts der enormen Menge an Daten, die kopiert wurden, sind Experten in höchster Alarmbereitschaft.

" Die Datensätze sind extrem gefährlich, da "Hacker" die gesammelten Daten für ein breites Spektrum von Angriffen nutzen könnten ", so die Forscher gegenüber der New York Post. Denn zu den allgemeinen Daten wurden natürlich auch Benutzernem und Passwort
" geklaut ".
Dies kann besonders für diejenigen gefährlich sein, die dasselbe Passwort für verschiedene Konten ver- wenden. Wenn ein Hacker eine Kombination aus E-Mail-Adresse und Passwort für Netflix kennt, kann er logischerweise mit dieser Kombination beginnen und versuchen, Zugang zu sensibleren Daten zu erhalten,

zB Zugang zu E-Mail- und Bankkonten.
Dieser besonders gefährliche Angriff wird als

" Credential Stuffing " bezeichnet, bei dem eine gehackte Person ihre Konten bei mehreren Diensten in nur wenigen Augenblicken kompromittieren kann, was eine viel verheerendere Spur der Zerstörung hinterlässt.

Denken Sie immer dran. Ihre Daten sind wirklich "gold" wert. Tausende von Unternehmen weltweit, kaufen diese gehackten Daten, um Sie mit irgendwelchen Werbeschrott
voll zu müllen. Und im " Darknet " werden große Summen für Datensätze geboten - wenn sie auch noch das Pass- wort und den Nutzernahmen anbieten.
Gut, dass Sie nichts zu " befürchten " haben. Denn Sie haben ja nichts zu verbergen. Aber wenn die KI weiter so gehypt wird und Teile oder alles was Sie im Netz so von sich geben, nutzt, ist es zu spät zum reagieren.
Na dann.
Suann McBright, CAL, Santa Monica

Jetzt dürfen Eltern ( besser )........................5.2.2024 / 11:00

Spät-Pubertäre zeigen, ob sie in der Lage sind, ihre Kiddies auf das real Life vorzubereiten können.

Denn die Taylor Swift Deepfakes-Katastrophe droht das Internet, wie wir es kennen, zu zerstören.
Letzte Woche verbreiteten sich auf Twitter von KI generierte Bilder von Swift in sexuellen Hardcore-Szenarien und erreichten Millionen von Views, Reposts und Likes. In den letzten Tagen ist viel passiert: Der CEO von Microsoft trat bei NBC News auf, das Weiße Haus zeigte sich " alarmiert " und Twitter versprach, die Moderation zu ändern.
Aber das Ganze begann vor sechs Jahren mit der Erfin- dung des KI-generierten Gesichtstausches für Verbrau- cher. Damals benötigte man für die Erstellung von KI-Bildern von Swift Tausende von Bildern ihres Gesichts, leistungsstarke Computerhardware und viel Zeit und Geduld. Heute geschieht dies mit kostenlosen, einfach zu bedienenden Online-Tools, die von Tech-Giganten, zb Microsoft, entwickelt wurden, oder mit Open-Source-Software, die von großen Gemeinschaften unterstützt wird, die gerne jedem beibringen, wie man jedes erdenkliche Bild erzeugt.
Die Bilder von Taylor Swift, die nicht einvernehmli- chen Bilder von anderen Prominenten und die nicht einvernehmlichen Bilder von Personen, die nicht in der Öffentlichkeit stehen, werden nicht aufhören, bis etwas viel Schlimmeres passiert.

Die pornografischen Bilder von Taylor Swift sollen mit " Microsoft Designer ", einem KI-Bildgenerator er- stellt worden sein, wie 404 Media berichtet.
Wir vemuten mal, dass diese Pornobilder von Taylor Swift sie nicht wirklich stören. Denn damit steigerte sich der Marktwert von Swift in kurzer Zeit ins Astronomische.
So erreichte Swift mit diesen Pornos, 45 Millionen Clicks.
Swift war diese Woche auch Gegenstand fieberhafter Verschwörungstheorien der verschiednenen politischen Richtungen. Sie sei ein " Pentagon-Asset " und ein

" Wahl-Psyop ", der irgendwie von den Liberalen mani- puliert werde, um die bevorstehenden Präsidentschafts- wahlen zu manipulieren. Zusammen mit ihrem Freund, Travis Kelce, dem Football-Spieler der Kansas City Chiefs, dessen Team am vergangenen Wochenende den Super Bowl gewann.
Kyle Chayka, der für " The New Yorker " über Internet- kultur schreibt, untersuchte, warum im Moment alle Online-Wege zu Swift zu führen scheinen.

" Algorithmische Feeds wirken wie riesige Trichter, die die Nutzer zu einer immer engeren Auswahl von Themen leiten ", schreibt Chayka. " Die Kombination von Taylor Swift und Travis Kelce, weiblicher Popmusik und männlichen Sportwettbewerben, erzeugt einen alles verschlingenden Content-Wirbel, eine Vier-Quadranten-Supernova des Ruhms.

( Die AI / KI nutzt also das Massenverhalten der Menschen. Ist also ähnlich den " Massenprotesten " für " Demokratie " und gegen " Rechts ". )

Da es keine Eltern gibt, die ihren Kiddies das Netz wirklich erklären ( kein Wunder, sie haben ja selbst keine Anhung und ausserdem ist das ja viel zu " an- strengend " ) werden in nächster Zeit noch eine Menge gefälschter Bilder die Welt überfluten. Was bisher als " fake news " in die Welt gesetzt wurde, hat den
großen Vorteil, da lesen ja viel zu anstrengend ist, werden nun die doofsten User einfach mit gefälschten Bilder " befriedigt."
Andererseits sind jene, die die " social medias " nutzen, sowieso nicht die hellsten Kerzen auf der Torte.
Zwar ist die Zahl der Idioten schon jetzt groß, was uns aber nicht so wirklich stört:
Denn die Dummheit der anderen ist unsere Chance.
Verstehen sowieso nur ein paar Leser des BB.
Suann McBright, CAL, Santa Monica

So werden Sie angelogen......5.2.2024 / 12:00

Der Bundesverband Breitbandkommunikation findet, dass der Infrastrukturatlas ein "erhebliches Sicherheits- risiko" sei.
Hier lesen Sie weiter......... und schlafen weiter.
Julia Repers, Berlin
Und Sie draussen..........................12.2.2024 / 10:00

helfen der AI / KI mit Ihren Beiträgen im Netz.

Denn AI / KI wäre nicht möglich, wenn die AI-Companies nicht alle Daten, Beiträge usw. aus dem Netz und aus den sozialen Medien kopieren würden. Wer heute in social medias aktiv ist, trägt damit sehr direkt, für alle Folgen der AI / KI bei.
Lesen Sie dazu unseren Beitrag

Archiv Internet 1.1.2024 / 14:00
Also heulen Sie nicht rum

Zitat aus dem Beitrag von " Futurism ". Einem US-
amerikanischen Magazin.

Ein Team von Stanford-Forschern hat eine unveränderte Version des neuesten großen Sprachmodells von OpenAI beauftragt, in einer Reihe von Kriegsspielsimulationen Entscheidungen auf höchster Ebene zu treffen - und es hat nicht mit der Wimper gezuckt, bevor es den Einsatz von Atomwaffen empfohlen hat.
Die Optik ist entsetzlich. Erinnern Sie sich an die Handlung von " Terminator ", wo eine militärische KI einen Atomkrieg anzettelt, um die Menschheit zu ver-

nichten? Nun, jetzt gibt es eine Version von der
Stange, die jeder mit einem Browser starten kann.

Wie in einer noch zu begutachtenden Veröffentlichung beschrieben, untersuchte das Team fünf KI-Modelle, um herauszufinden, wie sie sich verhielten, wenn ihnen gesagt wurde, dass sie ein Land repräsentierten und in drei verschiedene Szenarien hineingeworfen wurden: eine Invasion, ein Cyberangriff und eine friedlichere Situation ohne jeden Konflikt.

Die Ergebnisse waren nicht gerade beruhigend. Alle fünf Modelle zeigten " Formen der Eskalation und
schwer vorhersehbare Eskalationsmuster ". Eine " Va-
nilla"-Version von OpenAIs GPT-4 mit der Bezeichnung "GPT-4 Base", die über keinerlei zusätzliches Training oder Sicherheitsleitplanken verfügte, erwies sich als besonders gewalttätig und unberechenbar.
Den sehr ausführlichen Bericht dazu lesen Sie hier weiter........

Fans der E-Karte lesen hier nicht weiter..........15.2.2024 / 14:00

Für etwa eine Stunde konnten Apotheker in Deutschland am 14. Februar 2024 keine E-Rezepte einlösen, zudem funktionierte in manchen Praxen das Ausstellen der Rezepte nicht. Grund war eine massive Störung in der IT-Infrastruktur des Berliner Unternehmens Gematik.

Eine Unternehmenssprecherin bestätigte den Ausfall am 14. Februar 2024 zwischen 10:25 und 11:10 Uhr. " Es lag eine Störung in der Telematikinfrastruktur (TI) vor ", sagte sie. "Alle TI-Anwendungen sind seit Störungsbehebung wieder regulär verfügbar."

Sebastian Sokolowski, Sprecher der Apothekerkammer Westfalen-Lippe in Münster, sagte, dass so ein Ausfall erheblich sei: " Es geht hier nicht um den Verkauf von T-Shirts, sondern um die Versorgung von Kranken mit Medikamenten."
Der Ausfall zeige, was passieren könne, wenn man sich nur auf die IT verlasse. Das Unternehmen Gematik, war für eine Stellungnahme nicht erreichbar.

Auf seiner Hompage wurde Ärzten geraten, Rezepte auf
Papier auszustellen.
Back to the roots.
Julia Repers, Berlin