Kontakt / contact       Hauptseite / page
                  principale / pagina principal / home        zurück / retour / indietro / atrás / back
<<        >>

KI Künstliche Intelligenz KI - Meldungen 06 - ab 1.1.2026












Wortschöpfung: Die Atom-KI (M.P. - 28.10.2025)

KI=KATASTROPHE:
KI-Fabrik "Colossus" von Musk in Memphis ("USA") am 23.1.2026: Gigantischer Strom- und Wasserverbrauch:
«Umwelt-Rassismus»: Musks Supercomputer frisst so viel Strom wie der Kanton Aargau
https://www.20min.ch/story/umwelt-rassismus-musks-supercomputer-frisst-so-viel-strom-wie-der-kanton-aargau-103489087

Michael Andai -- Das Rechenzentrum Colossus 2 soll KI mit brachialer Rechenleistung vorantreiben und verschlingt zurzeit bis zu ein Gigawatt Strom. In Memphis sorgt das für Ärger: Bewohner berichten von Lärm und Abgasen.
  • Elon Musks KI-Firma xAI errichtet in Memphis das Rechenzentrum «Colossus 2».
  • Die Anlage benötigt extrem viel Strom und verbraucht bis zu 20 Millionen Liter Wasser täglich.
  • Mobile Gasturbinen zur Stromerzeugung belästigen die Anwohner mit Lärm und Abgasen.
  • Umweltorganisationen werfen xAI «Umwelt-Rassismus» vor.


Meldungen

präsentiert von Michael Palomino

Teilen / share:

Facebook









KI bei der WHO am 2.1.2026: Das Impfmonster Lauterbach will Impfkritiker mit KI überwachen lassen:
WHO weist Regierungen an, Online-Impfkritik in Echtzeit mit KI zu überwachen
https://uncutnews.ch/who-weist-regierungen-an-online-impfkritik-in-echtzeit-mit-ki-zu-ueberwachen/
https://t.me/uncut_news/86396

Fachzeitschrift „Vaccines“

Glaube an Impfstoffe – oder werde ins Visier genommen.

Jon Fleetwood

Die Weltgesundheitsorganisation (WHO) hat Regierungen angewiesen, Online-Informationen zu überwachen, die die Legitimität von Grippeimpfstoffen infrage stellen, und „Gegenmaßnahmen“ gegen jene zu ergreifen, die das Impfstoff-Dogma der WHO hinterfragen. Dies geht aus einer im November veröffentlichten Publikation in…



KI im Film verwendet am 4.1.2026: Film "Expedition 33" verliert 2 Preise:
«Clair Obscur: Expedition 33»: Director äussert sich zum KI-Skandal
https://www.nau.ch/news/games/clair-obscur-expedition-33-director-aussert-sich-zum-ki-skandal-67080048

Fabia Söllner -- USA -- «Clair Obscur: Expedition 33» steht nach einem KI-Skandal unter Druck. Director Guillaume Broche bezieht Stellung und verliert eine Millionensumme.

Der KI-Eklat um «Clair Obscur: Expedition 33» hat dem gefeierten Indie-Rollenspiel zwei wichtige Auszeichnungen gekostet.

Laut «WinFuture» wurden der Titel dem Studio bei den Indie Game Awards nachträglich aberkannt, weil generative KI genutzt wurde. Entgegen den Wettbewerbsregeln.​

Die Organisatoren reagierten auf Hinweise aus der Community, die verdächtige Texturen im Spiel entdeckt hatte.

Wie die KI ins Spiel kam
Director Guillaume Broche schildert, sein Team habe KI nur kurz als Platzhalter für fehlende Texturen getestet. Im Gespräch mit dem YouTuber Sushi betont er, alles im fertigen Spiel sei von Menschen geschaffen, berichtet «GamesRadar».​

Die generierten Platzhalter seien aus dem Projekt entfernt worden, sobald man ihren Einsatz bemerkt habe. Broche erklärt, das Experiment habe sich «falsch“ angefühlt, weshalb Sandfall künftig auf derartige Tools verzichten wolle, so «PushSquare».​

Aus Sicht der Indie Game Awards spielte nicht nur die Technik, sondern auch die Kommunikation eine Rolle. «WinFuture» berichtet, Sandfall habe im Einreichungsprozess widersprüchliche Angaben zur KI-Nutzung gemacht, was schliesslich zur Aberkennung führte.​




KI am 8.1.2026: Die Leute werden immer wacher und lehnen KI ab!

https://www.20min.ch/story/ces-2026-in-ai-we-trust-die-ki-vertrauensluecke-wird-tiefer-und-breiter-103481468

CES 2026: In AI we trust? Die KI-Vertrauenslücke wird tiefer und breiter

Gaudenz Valentin Looser -- Der Grabenbruch zwischen den AI-enthusiastischen Tech-Firmen und einer AI-skeptischen Mehrheit in der Gesellschaft wird tiefer. An der CES in Las Vegas führte Samsung eine wichtige Debatte über mögliche Auswege.

    Künstliche Intelligenz (KI) ist überall, doch die Skepsis in der Gesellschaft wächst.
    Beim Samsung CES First Look Event gab es eine kritische Debatte dazu.
    Ein Edelman-Bericht zeigt eine grosse Vertrauenslücke gegenüber KI.
    Experten diskutierten verschiedene Wege, um dieses Vertrauen wieder aufzubauen.

Künstliche Intelligenz ist überall – im E-Mail-Postfach, in der Flugbuchung und, wenn es nach Samsung geht, bald auch in allen Haushaltsgeräten vom Staubsauger bis zum Kühlschrank. Doch während die Nutzung steigt, zeigen Daten eine tiefe Skepsis in der Bevölkerung. Unter der Moderation von PR-Ikone Richard Edelman diskutierten Industrievertreter, Futuristen und Investoren über die Diskrepanz zwischen technologischer Innovation und menschlichem Vertrauen.
«Massive Vertrauenslücke zwischen KI und übriger Tech-Industrie»: Moderator und PR-Legende Richard Edelman.
«Massive Vertrauenslücke zwischen KI und übriger Tech-Industrie»: Moderator und PR-Legende Richard Edelman.Gaudenz Looser

Richard Edelman, CEO der globalen PR-Firma Edelman, eröffnete die Runde mit harten Fakten aus dem Edelman Trust Barometer (mehr dazu: siehe Box). Die Statistiken zeichnen ein ernüchterndes Bild: In den USA lehnen die Menschen KI mit einer Wahrscheinlichkeit von zwei zu eins eher ab, als dass sie sie akzeptieren. Es klafft eine massive «Vertrauenslücke» zwischen dem allgemeinen Vertrauen in den Technologiesektor und dem deutlich geringeren Vertrauen in KI. Edelman betonte: «Vertrauen treibt die KI-Akzeptanz an.» Wer gut informiert sei und keine Angst vor Arbeitsplatzverlust habe, vertraue der Technologie eher. Die Diskussionsteilnehmer näherten sich diesem Problem aus vier fundamental unterschiedlichen Richtungen.




WARNUNG am 8.1.2026: KI-SPIELZEUGE – MASSIV SCHÄDLICH UND GEFÄHRLICH
https://reitschuster.de/post/smarte-spielzeuge-reale-gefahren/
https://t.me/FaktenFriedenFreiheit/34529

Teststudien zeigten erschreckende Fehlfunktionen und auch Fehlinformationen bei KI-basierten Spielzeugen.

Ein sprechender KI-Teddy driftet in sexuelle Praktiken und Rollenspiele ab.

Ein anderes Toy erklärt, wie man Feuer legt und wo man Messer findet.

Einige Smat Toys sammeln Iris-Scans, Fingerabdrücke und Vitaldaten der Kids.

Ganz zu schweigen von den langfristigen Folgen auf die Entwicklung der Kinder.

Sowas wird als pädagogisch wertvoll beworben und viele Eltern gehen einfach davon aus, dass diese Spielzeuge getestet und sicher sind.

Sind sie nicht – denn es gibt keine verbindlichen Regeln.

Und das Vertrauen der Kinder wird rigogos ausgenutzt.




11.1.2026:
Wegen KI: Siemens und Nvidia rufen «neue industrielle Revolution» aus
https://www.blick.ch/wirtschaft/elektronik-siemens-und-nvidia-rufen-neue-industrielle-revolution-aus-id21575077.html




KI-Betrug mit imitierter Stimme am Telefon in Schwyz (Schweiz) am 19.1.2026: CEO wird zu Millionenzahlung nach Asien manipuliert:
Mit KI: Millionen weg: Schwyzer Firma fällt auf CEO-Betrug rein
https://www.20min.ch/story/mit-ki-millionen-weg-schwyzer-firma-faellt-auf-ceo-betrug-rein-103489245

Daniel Krähenbühl -- Eine Schwyzer Firma ist Opfer eines sogenannten CEO-Frauds geworden. Unbekannte Täter erbeuteten mehrere Millionen Franken.

    Eine Schwyzer Firma wurde Opfer eines CEO-Frauds.
    Unbekannte Täter erbeuteten dabei mehrere Millionen Franken.
    Sie nutzten eine KI-manipulierte Stimme, um einen Geschäftspartner nachzuahmen.
    Der Firmeninhaber wurde zu Überweisungen auf ein Konto in Asien verleitet.

Millionenbetrug im Kanton Schwyz: Wie die Schwyzer Polizei am Montag mitteilt, fiel eine Firma kriminellen Betrügern zum Opfer. Der Modus Operandi war folgender: Die Täterschaft nahm zunächst telefonischen Kontakt mit dem Inhaber des geschädigten Unternehmens auf und gab sich glaubhaft als bekannter Geschäftspartner aus. Dabei kam eine mithilfe künstlicher Intelligenz manipulierte Stimme zum Einsatz.

Durch diese Täuschung gelang es den Tätern, das Vertrauen des Inhabers zu gewinnen. Unter dem Vorwand eines angeblich vertraulichen internationalen Geschäfts wurde der Inhaber des geschädigten Unternehmens dazu verleitet, mehrere Geldtransaktionen im Gesamtwert von mehreren Millionen Franken auszuführen.

Bankkonto in Asien
Die Überweisungen erfolgten auf ein Bankkonto in Asien. Erst nach Abschluss der Zahlungen wurde der Betrug erkannt. Die Täterschaft ist bislang unbekannt. In Zusammenarbeit mit der Staatsanwaltschaft des Kantons Schwyz hat die Kantonspolizei die Ermittlungen aufgenommen.

Präventionshinweise der Kantonspolizei an Unternehmensleitungen:

    Seien Sie besonders vorsichtig bei Zahlungsaufforderungen per Telefon oder Sprachnachricht, auch wenn die Stimme vertraut klingt.
    Beachten Sie, dass Stimmen mithilfe künstlicher Intelligenz täuschend echt nachgeahmt werden können.
    Verifizieren Sie ausserordentliche oder dringliche Zahlungsanweisungen stets über einen zweiten, unabhängigen Kommunikationsweg.
    Setzen Sie konsequent das Vier-Augen-Prinzip sowie klare Freigabeprozesse bei hohen Geldbeträgen um.
    Tätigen Sie keine Auslandsüberweisungen ohne überprüfte und dokumentierte Genehmigung.
    Melden Sie verdächtige Vorfälle umgehend Ihrer Bank und der Polizei.




20.1.2026: KI und Co. fressen Zuwachs von erneuerbarer Energie auf

https://science.orf.at/stories/3233837/





21.1.2026: KI hat ein Problem: Strombedarf - und auch Wasserbedarf:
Der wachsende Durst von KI nach Wasser wird zu einem Risiko für die öffentliche Gesundheit
AI’s growing thirst for water is becoming a public health risk

https://www.aljazeera.com/opinions/2026/1/21/ais-growing-thirst-for-water-is-becoming-a-public-health-risk

By Omar Shabana -- Egyptian-British commentator and writer. -- As water-intensive data centres expand worldwide, their impact on sanitation, inequality and disease is emerging as a serious and under-examined threat.

“Bubble” is probably the word most associated with “AI” right now, though we are slowly understanding that it is not just an economic time bomb; it also carries significant public health risks. Beyond the release of pollutants, the massive need for clean water by AI data centres can reduce sanitation and exacerbate gastrointestinal illness in nearby communities, placing additional strain on local health infrastructure.

AI’s energy consumption is massive and increasingly water-dependent

Generative AI is artificial intelligence that is able to generate new text, photos, code and more, and it has already infiltrated the lives of most people around the globe. ChatGPT alone is reported to receive around one billion queries in a single day, pointing to huge demand at the individual level.

This, however, is only the tip of the iceberg. Companies such as Google, Apple and Microsoft are now embedding AI into their key products. Applications that utilise search results are quickly moving to have AI as a new standard in their algorithms. Whether it is shopping on Amazon or booking a flight or a hotel, AI is now being used in searches, and that demands more energy. As an example, a single AI-powered Google search is estimated to use up to 30 times more energy than its standard version.

Graphics Processing Units (GPUs) are the current industry answer to this. They are chips that demand energy and produce heat. Though the thousands of small cores on GPUs enable parallel processing of massive, repetitive maths carried out by AI algorithms, a single chip can use up to 700 watts. This means that three chips alone can use roughly the same amount of energy as a home electric oven.

The large amount of heat produced by data centres is cooled by up to hundreds of thousands of gallons of fresh water each day. With thousands of heat-generating chips stacked next to and on top of one another, a simple fan does not do the trick. Instead, water is pumped or immersed between and around chips in order to avoid system overheating. A recent report from the United Kingdom’s Government Digital Sustainability Alliance predicts that AI will increase global water usage from 1.1 billion cubic metres to 6.6 billion cubic metres by 2027.

Some companies are attempting to use seawater in cooling. However, fresh water continues to be widely used for cooling in many facilities. Water recycling is another option, but not a simple one. Several companies use a “closed-loop system” to reduce the total amount of water needed. Nevertheless, dust and minerals collected during cooling can degrade water quality over time, requiring treatment or replacement.
How AI-driven water scarcity threatens public health

Data centres being placed where water is already scarce can quickly translate into a healthcare burden, even before pollution becomes an issue. In 2023, Microsoft reported that 41 percent of its water withdrawals were from areas with water stress. Google, on the other hand, said that 15 percent of its water consumption occurred in areas with high water scarcity. Amazon did not disclose comparable figures.

It is well established that water scarcity correlates with infections, malnourishment and declining hygiene. While most such studies focus on areas that are already impoverished, in many cases, these are exactly the places where data centres are planned to be built. In addition, the underlying cause remains the same. Less fresh water for local populations pushes households to prioritise drinking and cooking over washing hands, food or bathing. Naturally, this also leaves less water available for cleaning living spaces.

The World Health Organization recognises that unsafe drinking water and poor sanitation and hygiene are conducive to the spread of diseases such as cholera and other diarrhoeal illnesses, along with a range of other pathogens. To make matters worse, several diseases associated with water scarcity can pass from person to person, raising the risk of sustained local transmission.

The health burden on children is particularly alarming, as infections and deaths are more common than among adults. In fact, 84 percent of the global burden of diarrhoeal disease is borne by children under five, and infections with diarrhoeal pathogens have been linked to cognitive impacts later in childhood.

Although it is too early to draw direct causal links between AI data centres and water-related diseases, the known facts make this a significant concern. It is established that AI data centres can significantly deplete local water supplies. It is also established that communities with poor water access face heightened risks of gastrointestinal disease and other illnesses.

To claim that AI data centres are directly causing gastrointestinal disease would be poorly supported. However, the warning signs are increasingly difficult to ignore. When risks are foreseeable and severe, governments should not wait for people to start dying before putting preventative policies in place.
Marginalised communities are already reporting polluted water

In Newton County, Georgia, in the United States, Meta has built an AI data centre, and residents have reported discoloured, sediment-filled water coming out of their taps, which they attribute to the facility. Similarly, in Fayette County, residents have reported sediment in their water, which they believe coincided with nearby data centre construction. Another report from California suggests that a data centre planned along the San Francisco Bay in Bayview-Hunters Point has raised concerns about compounding environmental burdens in an already polluted community. In all these cases, the local population includes a significant Black and African American presence, a pattern that has raised environmental justice concerns.

Accumulated residues can result in effects ranging from acute gastrointestinal illness to chronic conditions such as cancer. Microbial contamination can cause poisoning and acute disease, while chemical residues are associated with long-term harm, often acting as a slow, invisible threat.

With plans for data centres in African countries such as Nigeria, Egypt and South Africa, further questions arise about who will bear the brunt of their environmental impacts and whether affected communities will receive sufficient protection or support. Weak regulatory oversight in some of these countries makes this uncertain. In many cases, serious community effects may go unreported altogether.

Why corporate water promises and regulation matter

Only 0.5 percent of the planet’s water is fresh water, and water is not only needed for data centres. It is also required for the power plants that generate electricity for them. The manufacture of chips and wiring similarly demands water, making water use an AI supply-chain issue rather than merely a data-centre problem.

Many companies are promising sustainability, with some even claiming they aim to be “net water producers” or “water positive”. Even if such targets are achieved, which remains questionable, they must deliver benefits to the communities from which water is extracted. Providing more water for affluent areas while depleting supplies in places such as Newton County may satisfy corporate accounting standards, but local residents will still suffer the consequences.

To meet their ethical obligations to the public, governments must rapidly catch up with the pace of AI expansion and data-centre construction. A healthy population is a productive one, and a lower public-health burden can reduce government spending while supporting development. More fundamentally, there is a collective moral obligation to build a sustainable future for coming generations by safeguarding water security and averting environmental catastrophe. This begins with legislation mandating transparent corporate reporting on water use and enforcing meaningful standards for sustainable management. Regulation must prioritise human wellbeing over short-term, extractive technological growth. As with climate change, unrestrained innovation risks further harm to both people and the planet.

The views expressed in this article are the author’s own and do not necessarily reflect Al Jazeera’s editorial stance.





22.1.2026: Das kr.-satanistische WEF in Davos erfindet "KI-Einwanderer"
https://t.me/uncut_news/86971

⚠️ Davos: „KI-Einwanderer“ – wenn Maschinen Rechte bekommen sollen ⚠️

Beim WEF zeichnet Yuval Noah Harari ein Zukunftsbild, das verstören sollte – und doch kaum Widerspruch auslöst:

👉 „KI-Einwanderer“ werden menschliche Arbeitsplätze übernehmen.

👉 Sie werden Kultur, Kunst, Religion und sogar Romantik verändern.

👉 Ihre politischen Loyalitäten seien fragwürdig – nicht gegenüber Staaten, sondern gegenüber Konzernen oder Regierungen, vor allem in den USA oder China.

👉 Und dann die Schlüsselfrage: Soll KI als Einwanderer und juristische Person anerkannt werden?

🔎 Kritische Einordnung:
Was hier nüchtern diskutiert wird, ist ein radikaler Umbau von Gesellschaft, Recht und Macht. Wenn KI als „juristische Person“ anerkannt würde, bekäme sie Rechte wie Eigentum, Vertragsfähigkeit, Klagebefugnis – ohne Körper, ohne Gewissen, ohne Verantwortung. Rechte ohne menschliche Haftung.

📌 Der eigentliche Skandal:
Harari benennt selbst, dass diese KI-Akteure nicht loyal zu Ländern, sondern zu globalen Tech-Konzernen wären. Damit würde wirtschaftliche und politische Macht weiter entstaatlicht und entdemokratisiert – zugunsten weniger Plattformen.

💼 Arbeitsplätze, Identität, Souveränität:
Während Bürger über Migration, Jobs und soziale Stabilität streiten, wird parallel eine unsichtbare Masseneinwanderung von KI vorbereitet – ohne Wahl, ohne Zustimmung, ohne gesellschaftliche Debatte.

=====

"USA" am 22.1.2026: KI-Fabriken und Big-Pharma mit Mini-Computern im Körper ("Wearables") sind ohne Kontrolle:
US-Behörde zieht sich zurück: überlässt Big Tech und Big-Pharma bei Gesundheits-Wearables weitgehend freie Hand

https://uncutnews.ch/us-behoerde-zieht-sich-zurueck-ueberlaesst-big-tech-und-big-pharma-bei-gesundheits-wearables-weitgehend-freie-hand/

Quelle: FDA Says Many AI Tools And Health Wearables Are Exempt From Regulation, 'We Don’t Believe In Censorship' - Tracking Devices Are Safe

Die Food and Drug Administration hat am 6. Januar klargestellt, dass sie bestimmte Tools und Wearables mit künstlicher Intelligenz (KI) nicht regulieren wird.

In einem Leitfaden hat die Food and Drug Administration (FDA), Werkzeuge, die zur Unterstützung klinischer Entscheidungen eingesetzt werden von der Aufsicht durch die FDA ausgenommen, beispielsweise solche, die nicht zur Analyse medizinischer Bilder bestimmt sind.

In einem zweiten Dokument: Es regelt keine „Produkte mit geringem Risiko, die einen gesunden Lebensstil fördern“, darunter „allgemeine Wellness-Produkte mit geringem Risiko“ wie Trainingsgeräte und Softwareprogramme.

Offiziell begründet die Behörde diesen Schritt mit Innovationsförderung. In neuen Leitlinien erklärte die FDA, dass sie bei vielen digitalen Entscheidungshilfen „als Regulierungsbehörde aus dem Weg gehen“ müsse. Produkte, die keine medizinischen Bilder analysieren oder keine klinischen Diagnosen stellen, fielen demnach oft nicht unter ihre Aufsicht. Auch KI-Tools, die lediglich Informationen bereitstellen, sollen unbehelligt bleiben.

FDA-Kommissar Marty Makary formulierte die Linie ungewöhnlich offen: Man wolle künstliche Intelligenz fördern, nicht bremsen. Wenn ein Tool wie ChatGPT oder eine Suchmaschine lediglich Informationen liefere, sei es nicht Aufgabe der FDA, einzugreifen oder Inhalte zu „zensieren“. Auf Sicherheitsbedenken angesprochen, sagte Makary wörtlich: „Wir glauben nicht an Zensur.“

Die Grenze zieht die Behörde dort, wo Produkte ausdrücklich medizinische Qualität beanspruchen – etwa bei klinisch validen Messungen oder Therapieempfehlungen. Screening-Instrumente, Schätzungen physiologischer Werte oder Lifestyle-Analysen hingegen sollen frei bleiben, selbst wenn sie von Nutzern faktisch zur Gesundheitsentscheidung herangezogen werden.

Biometrische Daten ohne Aufsicht

Kritiker sehen darin ein erhebliches Risiko. Viele dieser Wearables und KI-Tools sammeln kontinuierlich hoch­sensible biometrische Daten – Herzfrequenz, Schlafmuster, Bewegungsprofile, Stressindikatoren – und speichern sie in zentralen Datenbanken. Genau hier setzt die Kritik an: Während klassische Medizinprodukte streng reguliert sind, entsteht parallel ein kaum kontrollierter Datenmarkt, der sowohl für Tech-Konzerne als auch für staatliche Stellen hochattraktiv ist.

Die offizielle Lesart lautet: geringe Gefahr, hoher Nutzen. Die inoffizielle Folge könnte jedoch sein, dass sich ein umfassendes Ökosystem der Gesundheitsüberwachung etabliert, ohne klare Zuständigkeiten, Transparenz oder Haftung.

Politischer Rückenwind für Wearables

Zusätzliche Brisanz erhält die FDA-Position durch die politische Großwetterlage in Washington. Gesundheitsminister Robert F. Kennedy Jr. hat sich wiederholt für den flächendeckenden Einsatz von Wearables [Mini-Computer im Körper] ausgesprochen. Seine Vision: Innerhalb weniger Jahre solle jeder US-Bürger ein solches Gerät tragen, um Krankheiten frühzeitig zu erkennen und Gesundheitskosten zu senken.

Kennedy argumentiert wirtschaftlich: Ein günstiges Wearable könne teure Medikamente ersetzen und die Bevölkerung insgesamt gesünder machen. Kritiker hingegen verweisen auf Interessenkonflikte – insbesondere, da prominente Akteure der aktuellen Regierung in Unternehmen investieren, die genau solche KI-gestützten Wearables entwickeln.

Innovation oder Kontrollverlust?

Die FDA betont, sie wolle Innovation ermöglichen und gleichzeitig vor „großen Sicherheitsbedenken“ schützen. Doch die aktuelle Linie bedeutet faktisch: Je weniger ein Produkt offiziell als Medizin gilt, desto weniger wird es überwacht – selbst wenn es tief in das Gesundheits- und Alltagsverhalten von Millionen Menschen eingreift.

Damit verschiebt sich die Grenze zwischen Medizin, Technologie und Überwachung weiter. Was früher ärztlicher Diagnostik unterlag, wird zunehmend zu einer privaten Datenangelegenheit – gesammelt von Konzernen, ausgewertet von Algorithmen und politisch ausdrücklich gewollt.

Die entscheidende Frage bleibt offen: Wer kontrolliert die Kontrolleure, wenn Gesundheitsüberwachung zur Wellness erklärt wird – und Regulierung zur freiwilligen Option?

=====

KI=KATASTROPHE:
KI-Fabrik "Colossus" von Musk in Memphis ("USA") am 23.1.2026: Gigantischer Strom- und Wasserverbrauch:
«Umwelt-Rassismus»: Musks Supercomputer frisst so viel Strom wie der Kanton Aargau
https://www.20min.ch/story/umwelt-rassismus-musks-supercomputer-frisst-so-viel-strom-wie-der-kanton-aargau-103489087

Michael Andai -- Das Rechenzentrum Colossus 2 soll KI mit brachialer Rechenleistung vorantreiben und verschlingt zurzeit bis zu ein Gigawatt Strom. In Memphis sorgt das für Ärger: Bewohner berichten von Lärm und Abgasen.
  • Elon Musks KI-Firma xAI errichtet in Memphis das Rechenzentrum «Colossus 2».
  • Die Anlage benötigt extrem viel Strom und verbraucht bis zu 20 Millionen Liter Wasser täglich.
  • Mobile Gasturbinen zur Stromerzeugung belästigen die Anwohner mit Lärm und Abgasen.
  • Umweltorganisationen werfen xAI «Umwelt-Rassismus» vor.

Elon Musks KI-Firma xAI hat in einem Vorort von Memphis das Rechenzentrum «Colossus 1» zum Trainieren von neuen KI-Modellen im Eiltempo hochgezogen. Nach eigenen Angaben stand die erste Ausbaustufe nach wenigen Monaten. Kurz darauf folgte der nächste Ausbau auf Hunderttausende Nvidia-GPUs. Nvidia-Chef Jensen Huang nannte das Tempo «übermenschlich»: Solche Projekte würden sonst Jahre dauern.

Seit März 2025 wird eine weitere Riesenhalle in 13 Kilometer Entfernung zu einem Supercomputer im Gigawatt-Bereich ausgebaut – Colossus 2. Das bedeutet: Ein KI-Rechenzentrum mit einem Strombedarf in der Grössenordnung eines Kraftwerks.

Am 17. Januar 2026 ging dieser KI-Supercomputer live. Für April 2026 sind zusätzlich 500 Megawatt angekündigt. Langfristig wird als Ziel eine Gesamtleistung von rund zwei Gigawatt genannt.

Colossus 2 im Überblick

Colossus 1 (Memphis): Von März bis Juni 2024 in 122 Tagen gebaut; danach laut xAI in 92 Tagen auf rund 200’000 GPUs H100 Chips verdoppelt.
Colossus 2 (Southaven): Das erste Gigawatt-Datacenter geht nach ca. 10 Monaten Bauzeit am 17.01.2026 live. Im April soll es bereits auf 1,5 Gigawatt ausgebaut werden. Das Endziel sind 2 Gigawatt.
Hardware-Power: Basierend auf Berichten und Schätzungen sind in der aktuellen Ausbaustufe etwa 550'000-555'000 NVIDIA-GB200- und GB300-GPUs verbaut. Diese kosten rund 18 Milliarden US-Dollar. Eine offizielle Zahl seitens xAI oder Nvidia gibt es nicht.
Ziel: Maximale Rechenleistung für die nächste Grok-Generation; Musk spricht dabei offen vom Ziel, KI auf menschlichem Level zu entwickeln (AGI).

Riesenbatterien von Tesla liefern zusätzlich Energie

Zur Stabilisierung der Stromversorgung setzte xAI auf Tesla-Megapacks 2XL: Riesige Batteriespeicher, die Ausfälle und Belastungsspitzen abfedern sollen. Gemäss einer Analyse von Satellitenaufnahmen von EpochAI, sind zurzeit ca. 600 solche Batterien auf dem Gelände verbaut.

Was würden 2 Gigawatt bedeuten?
Das ist in etwa so viel Strom, wie die beiden grössten Schweizer AKWs zusammen generieren: Leibstadt netto ca. 1233 MW + Gösgen netto ca. 1010 MW = ca. 2243 MW.
Mit zwei Gigawatt würde Colossus 2 nach dem kompletten Ausbau so viel Strom benötigen, wie die Kantone Aargau, Bern, Waadt und Genf zusammen.
Eine Belastung für die Umwelt

Weil die Netzanbindung der Stadt nicht schnell genug mitwuchs, setzte xAI zusätzlich auf mobile Gasturbinen.

Eine Gigawatt-Leistung wäre in Memphis zudem nur mit massiven Ausbauten möglich gewesen und stiess auf Widerstand von Anwohnern und Umweltgruppen. Der Genehmigungsstreit dreht sich dabei um Luftauflagen für mobile Gasturbinen: lokal mit der Gesundheitsbehörde in Shelby County und auf Bundesebene mit der Umweltbehörde EPA. Für den parallelen Ausbau in Southaven gelten separate Genehmigungen unter der Umweltbehörde von Mississippi.
xAI baut eigenes Kraftwerk

xAI kaufte kurzerhand das ehemalige Duke-Energy-Kraftwerksgelände in der Nähe von Colossus 2 und betreibt ein eigenes Gasturbinenkraftwerk. Dort laufen sieben Titan 350-Gasturbinen mit je 35 MW Leistung.

Als Vergleich: Der gesamte Kanton Basel-Stadt inklusive Industrie benötigt im Durchschnitt ungefähr 150 bis 160 MW. Musk könnte mit seinen Turbinen also ganz Basel-Stadt versorgen und hätte noch Energie übrig, um die Stadt Luzern (knapp 50 MW) auch noch zu betreiben.

Zusätzlich sind weitere mobile Turbinen im Einsatz; das Newsportal «Mississippi Today» spricht von 59 Turbinen, 18 davon laufen aktuell.

    «Wir sind kein Spielplatz für Milliardäre»

Abré Conner, Umwelt- und Klima-Direktorin der NAACP

Die NAACP, eine der grössten Bürgerrechtsorganisationen der USA, stellt sich gemeinsam mit dem Southern Environmental Law Center (SELC), einer Umweltrechtsorganisation, und lokalen Gruppen gegen xAIs Vorgehen.

Abré Conner, Leiterin für Umwelt- und Klimagerechtigkeit bei der NAACP, sagte dem «Guardian», xAI behandle die Region wie ein persönliches Experiment: «Unsere Gemeinden, Luft, Wasser und Boden sind kein Spielplatz für Milliardäre, die dem nächsten Dollar hinterherjagen.»

Kritiker sprechen von «Umwelt-Rassismus», weil eine bereits industriell vorbelastete, einkommensschwächere Gegend betroffen ist.

Fast 20 Millionen Liter Wasser pro Tag

Colossus benötigt für die Kühlung enorme Wassermengen. Je nach Ausbaustufe kursieren Schätzungen von bis zu rund 20 Millionen Litern pro Tag. In Memphis ist das politisch heikel, weil die Stadt ihr Grundwasser schützen muss und Umweltgruppen vor Risiken durch bestehende Belastungen, etwa durch Arsen in der Region, warnen.

xAI plant deshalb eine 80-Millionen-Dollar-Anlage, die aufbereitetes Abwasser für die Kühlung bereitstellen soll, mit einer Kapazität von bis zu 50 Mio. Litern pro Tag. Der Bau hat 2025 begonnen, die Anlage ist aber noch nicht in Betrieb. Welche Übergangslösung bis dahin genau gilt, ist öffentlich nicht eindeutig dokumentiert.

Kühlwasser: Wird das verbraucht?
Wasser wird meist zur Kühlung in einem geschlossenen Kreislauf genutzt. In vielen Anlagen geht jedoch Wasser durch Verdunstung, etwa durch Kühltürme, tatsächlich verloren. Zusätzlich wird Abwasser produziert. Dieses ist wärmer, beinhaltet Salze und Chemikalien und muss vor einer weiteren Verwendung extra behandelt werden.
«Wasserverbrauch» meint deshalb meist den Netto-Verlust (Verdunstung + Abwasser) und nicht, dass jeder Liter «verschwindet».
Macht das alles überhaupt Sinn?

Colossus 2 steht für die Strategie «Viel hilft viel». Musk setzt auf reine Rechenpower, um seine KI schneller zu verbessern. Laut der KI-Forscherin Timnit Gebru, CEO des KI-Forschungsinstituts DAIR, bedeutet mehr Rechenleistung nicht automatisch bessere KI. Sehr wohl aber neue Risiken, wie zum Beispiel schwer kontrollierbare Modelle, Datenhunger oder Energieverbrauch.





Die KI könnte WOKE und asoziale, leistungsfeindliche Sozis Mause machen am 27.1.2026:
Werden die Woken und Sozialisten von der KI besiegt?

https://journalistenwatch.com/2026/01/27/werden-die-linken-von-der-ki-besiegt/



https://orf.at/stories/3418592/

Das Internet Archive hat es sich zum Ziel gesetzt, sämtliche Websites weltweit zu speichern, mittlerweile umfasst das weltgrößte Archiv des World Wide Web über eine Billion Einzelseiten. Auch zahlreiche Nachrichtenseiten sind darin gespeichert – doch viele Medienhäuser wehren sich nun gegen diese Archivierung, wie die Nieman Foundation for Journalism gestern in einem Artikel schrieb.

Auslöser sei die Sorge davor, dass KI-Sprachmodelle wie jene von OpenAI und Google mit derartigen Nachrichtenartikeln trainiert werden, ohne dafür entsprechende Lizenzen zu erwerben. Anstatt Abos für Kunden und Lizenzen für Firmen zu verkaufen, könnte man über den Umweg des Archivs alle Inhalte gratis abrufen, so die Befürchtung.

Von „Guardian“ bis „New York Times“

So blockiere zum Beispiel der „Guardian“ nicht nur direkt auf seiner Seite automatisierte Bots, die Nachrichtenartikel für KI-Datensätze auslesen, sondern auch das Internet Archive. Auch die „Financial Times“ und die „New York Times“ bestätigten gegenüber Nieman, dass das Internet Archive am Auslesen der Artikel gehindert werde.

„Wenn Verlage Bibliotheken wie das Internet Archive einschränken, dann wird die Öffentlichkeit weniger Zugang zu historischen Aufzeichnungen haben“, so Brewster Kahle, Gründer des Internet Archive, gegenüber der Nieman Foundation.

Beschränkung in vielen Fällen nicht bindend

Hunderte weitere Medienhäuser dürften laut Nieman ebenfalls die automatisierte Auslesung durch das Internet Archive und andere Anbieter unterbinden. Ausgelesen wurde dazu eine Textdatei, die auf vielen Webservern gespeichert ist und Automatisierungswerkzeugen den Zugriff auf Daten genehmigt oder verweigert.

Rechtlich bindend ist diese „Robots.txt“-Datei allerdings nicht – sie galt im Web jedoch jahrzehntelang als ungeschriebenes Gesetz für den Umgang mit automatisierter Verarbeitung von Daten. Tatsächlich ist es in vielen Fällen möglich, sich als herkömmlicher Webbrowser auszugeben und so Beschränkungen auszuhebeln.



KI-Blackout in Tasmanien am 29.1.2026: Heisse Quellen ERFUNDEN - aber Reise dahin bezahlt:
«KI hat komplett versagt»: Touristen reisen zu erfundenen Quellen
https://www.20min.ch/story/ki-erfindet-heisse-quelle-tourismus-desaster-in-tasmanien-103495719

Meret Steiger -- Ein KI-Blog auf der Website eines Reiseanbieters empfiehlt Touristen heisse Quellen in Tasmanien als Ausflugstipp. Vor Ort stellt sich heraus: Es gibt sie gar nicht.

«Unsere KI hat komplett versagt.»
Die im Artikel des Reiseveranstalters beschriebenen Weldborough Hot Springs sollen ein «friedlicher Rückzugsort» sein, in einem Wald im Nordosten von Tasmanien. Der Blogbeitrag bewarb die heisse Quelle gar als «Lieblingsplatz für Wanderer». Blöd nur: Die Quelle existiert gar nicht. Scott Hennessey, der Inhaber des in New South Wales ansässigen Unternehmens Australian Tours and Cruises, das Tasmania Tours betreibt, sagt gegenüber dem Australian Broadcasting Network (ABC): «Unsere KI hat komplett versagt.»

Das Unternehmen hätte sein Marketing an einen Drittanbieter ausgelagert, erklärt Hennessey weiter. Und während die Blogbeiträge normalerweise überprüft werden, sei dieser veröffentlicht worden, während er selbst im Ausland weilte. «Wir versuchen, mit den Grossen mitzuhalten», sagte Hennessey zu ABC. «Dazu gehört, dass man seine Inhalte ständig aktuell hält und erneuert.» Hennessey betont, dass Tasmania Travel kein Scam sei: «Wir sind ein verheiratetes Paar, das versucht, das Richtige zu tun. Wir sind seriös, wir sind echte Menschen und wir beschäftigen Verkaufspersonal.»
Verwirrte Hotelbetreiber

Kristy Probert, eine Hotelbesitzerin aus Weldborough, erzählt gegenüber CNN, wie verwirrt sie war, als Touristen plötzlich nach dieser ominösen Quelle gefragt haben. «Am Anfang waren es nur ein paar Anrufe», sagt Probert. «Doch dann tauchten die Leute plötzlich in Scharen auf. Ich bekam etwa fünf Anrufe pro Tag, mindestens zwei bis drei Personen kamen im Hotel vorbei und suchten nach den Quellen. Wir sind an einem sehr abgelegenen Ort, deshalb war das sehr seltsam.» Probert sagte, sie habe jeweils geantwortet: «Wenn ihr die Hot Springs findet, gibts ein Bier auf mich.»

Besonders absurd, wenn man bedenkt, dass die Touristen nach heissen Quellen suchen: Die einzige Badegelegenheit in der Gegend ist der laut Probert «eiskalte» Weld River. Die Hotelbesitzerin habe Mitleid mit den Veranstaltern von Tasmania Tours, wie sie sagt. Sie habe mit ihnen telefoniert und solche Fehler könnten passieren. Zudem gebe es in Weldborough viel zu sehen und zu erleben – einfach keine heissen Quellen.
Reisende sollen sich nicht auf KI verlassen

Rund 37 Prozent der Touristinnen und Touristen nutzten KI für Reiseempfehlungen, sagt Anne Hardy, Lehrbeauftragte für Tourismus an der Southern Cross University in Australien, gegenüber CNN. Damit könne man zwar Zeit und Geld sparen, aber es gebe auch das Risiko für sogenannte Halluzinationen, wie im Fall der Weldborough Hot Springs. Laut Hardy deuten Studien darauf hin, dass 90 Prozent der von KI erstellten Reisepläne Fehler enthalten.

Hardy empfiehlt Reisenden, sich bei der Reiseplanung nicht nur auf KI zu verlassen. Stattdessen solle man «vertrauenswürdige Reiseführer, Reisebüros und Bewertungsplattformen nutzen», sagte sie. «Falls man KI nutzt, um Ausflüge zu planen, sollte man die Gastgeber oder das Hotelpersonal fragen, ob die Ziele und andere Informationen korrekt sind.»



KI-Figur am 30.1.2026: Buddhistischer KI-Mönch verkauft Bücher:
Millionen fallen auf Social Media auf KI-Mönch rein: verkauft Bücher
https://www.nau.ch/news/digital/yang-mun-millionen-fallen-auf-social-media-auf-ki-monch-rein-67089143

Simon Binz -- Israel -- Ein buddhistisch wirkender Mönch spendet Millionen Menschen Trost und Lebensweisheiten auf Social Media. Doch hinter «Yang Mun» steckt keine reale Person.

Der Mönch Yang Mun erreicht Millionen Follower, ist aber vollständig KI-generiert.
Viele Nutzer erkennen nicht, dass die spirituellen Inhalte nicht von einer realen Person s
Über Social Media und E-Books verdienen die Urhebe mit der KI-Figur offenbar auch Geld.
Die Videos wirken ruhig und entschleunigend. Ein älterer ostasiatischer Mönch sitzt im Schneidersitz in einem Garten oder vor Tempelkulissen. Vor ihm liegt ein aufgeschlagenes Buch. In sanfter Stimme richtet er sich direkt an die Zuschauer.

«Ich sehe, wie müde du bist», sagt er. Nicht nur körperlich, sondern auch innerlich. Oft spricht er sein Publikum mit «mein Kind» an.

Die Botschaften sind allgemein, positiv und emotional zugänglich. Sie orientieren sich an östlichen Weisheitslehren, insbesondere am Buddhismus. Kleidung, Statuen und die Bildsprache unterstreichen diesen Eindruck.

Auf Instagram folgen zwei Profile der Figur Yang Mun rund 2,5 Millionen beziehungsweise 1 Million Menschen. Auf Facebook kommt eine weitere Seite auf etwa 1,4 Millionen Follower.

Yang Mun ist in Wahrheit ein KI-Mönch
Doch wie «Eurovision News Spotlight»(ENS) nun aufgedeckt hat, existiert der spirituelle Ratgeber in Wirklichkeit gar nicht. Sämtliche Videos wurden vollständig mit Künstlicher Intelligenz erzeugt.

Das zeigt eine Überprüfung mit Googles KI-Detektor SynthID: Die Inhalte wurden mit Google-Software generiert. Hinweise auf reale Personen mit spiritueller oder therapeutischer Ausbildung gibt es keine.

Viele Follower scheinen das nicht zu wissen. Kommentare unter den Beiträgen deuten darauf hin, dass Yang Mun für zahlreiche Nutzer als echte Figur wahrgenommen wird. Andere dürften sich am Ursprung der Inhalte nicht stören. Die Aussagen bleiben bewusst vage, wirken tröstend und lassen viel Raum für persönliche Interpretation.

Für den Urheber ist Yang Mun jedoch mehr als ein spirituelles Experiment. Die Marke ist eine lukrative Einnahmequelle. Auf der offiziellen Website werden mehrere E-Books angeboten.

Laut eigenen Angaben sollen diese bereits über 7000 Mal verkauft worden sein. Hinzu kommen mögliche Werbe- und Reichweitenerträge aus den sozialen Netzwerken.

Steckt in israelischer Influencer hinter dem KI-Mönch?
Wer hinter dem Projekt steht, war lange unklar. Auf «Yahoo Finance» wurde am 9. Dezember lediglich eine bezahlte Pressemitteilung veröffentlicht. Darin wurde Yang Mun als weltweite Bewegung dargestellt und aktiv für den Kauf der Bücher geworben.

Veröffentlicht wurde der Text von Shalev. H Marketing mit Sitz in Israel. Der Name verweist auf Shalev Hani, der sich auf LinkedIn als «Digital Creator & AI Storyteller». Auf eine Anfrage von «ENS» wollte sich Hani nicht zur Figur Yang Mun äussern.

Auch auf der Website fanden sich zunächst keine transparenten Angaben. Mittlerweile gibt es aber einen Hinweis auf die Betreiber der Marke Yang Mun: Im Urheberrechtsvermerk werden Maor Hani und Shalev Hani genannt.

Neue ethische Fragen
Der Fall zeigt, wie weit KI-generierte Inhalte im digitalen Alltag bereits vorgedrungen sind. Besonders sensibel ist dabei der Bereich der spirituellen und psychologischen Beratung. Wenn künstlich erschaffene Figuren emotionale Nähe erzeugen und gleichzeitig kommerziell genutzt werden, stellen sich neue ethische Fragen. Vor allem dort, wo Transparenz fehlt.





KI am 15.2.2026: KI könnte eine "Apokalypse" provozieren - Experten schlagen Alarm:
‘An apocalypse’: Why are experts sounding the alarm on AI risks?

https://www.aljazeera.com/news/2026/2/15/why-are-experts-sounding-the-alarm-on-ai-risks

Übersetzung:

Von Shola Lawal – KI entwickelt sich rasant und unvorhersehbar weiter, aber es gibt laut Experten keinen gemeinsamen Rahmen, um sie in Schach zu halten.

In den letzten Monaten war künstliche Intelligenz aus den falschen Gründen in den Nachrichten: Einsatz von Deepfakes zum Betrügen von Menschen, KI-Systeme, die zur Manipulation von Cyberangriffen eingesetzt werden, und Chatbots, die Suizide fördern, unter anderem.

Experten warnen bereits davor, dass Technologie außer Kontrolle gerät. Forscher einiger der bekanntesten KI-Unternehmen haben in den letzten Wochen ihre Jobs gekündigt und öffentlich Alarm geschlagen, dass rasante technologische Entwicklung Risiken für die Gesellschaft darstellt.

Weltuntergangstheorien kursieren seit langem darüber, wie erhebliche Fortschritte in der KI eine existenzielle Bedrohung für die Menschheit darstellen könnten, wobei Kritiker warnen, dass das Wachstum der künstlichen allgemeinen Intelligenz (AGI), einer hypothetischen Form der Technologie, die kritisches Denken und kognitive Funktionen ebenso wie der durchschnittliche Mensch ausführen kann, in ferner Zukunft den Menschen auslöschen könnte.

Doch die jüngste Reihe öffentlicher Rücktritte derjenigen, die dafür verantwortlich sind, dass KI für die Menschheit sicher bleibt, macht die Gespräche darüber, wie die Technologie reguliert und ihre Entwicklung verlangsamt werden kann, dringlicher, obwohl Milliarden in KI-Investitionen generiert werden.


ENGL orig.:

By Shola Lawal -- AI is advancing in rapid and unpredictable ways but there is no joint framework to keep it in check, experts say.

In recent months, artificial intelligence has been in the news for the wrong reasons: use of deepfakes to scam people, AI systems used to manipulate cyberattacks, and chatbots encouraging suicides, among others.

Experts are already warning against technology going out of control. Researchers with some of the most prominent AI companies have quit their jobs in recent weeks and publicly sounded the alarm about fast-paced technological development posing risks to society.

Doomsday theories have long circulated about how substantial advancement in AI could pose an existential threat to the human race, with critics warning that the growth of artificial general intelligence (AGI), a hypothetical form of the technology that can perform critical thinking and cognitive functions as well as the average human, could wipe out humans in a distant future.

But the recent slew of public resignations by those tasked with ensuring AI remains safe for humanity is making conversations around how to regulate the technology and slow its development more urgent, even as billions are being generated in AI investments.




So is AI all doom and gloom?

“It’s not so much that AI is inherently bad or good,” Liv Boeree, a science communicator and strategic adviser to the United States-based Center for AI Safety (CAIS), told Al Jazeera.

Boeree compared AI with biotechnology, which, on the one hand, has helped scientists develop important medical treatments, but, on the other, could also be exploited to engineer dangerous pathogens.

“With its incredible power comes incredible risk, especially given the speed with which it is being developed and released,” she said. “If AI development went at a pace where society can easily absorb and adapt to these changes, we’d be on a better trajectory.”

Here’s what we know about the current anxieties around AI:
Robots
Apollo, the humanoid robot built by Apptronik, carries a package in Austin, Texas, US [File: Evan Garcia/Reuters]
Who have quit recently, and what are their concerns?

The latest resignation was from Mrinank Sharma, an AI safety researcher at Anthropic, the AI company that has positioned itself as more safety cautious than rivals Google and OpenAI. It developed the popular bot, Claude.

In a post on X on February 9, Sharma said he had resigned at a time when he had “repeatedly seen how hard it is to truly let our values govern our actions”.

The researcher, who had worked on projects identifying AI’s risks to bioterrorism and how “AI assistants could make us less human”, said in his resignation letter that “the world is in peril”.

“We appear to be approaching a threshold where our wisdom must grow in equal measure to our capacity to affect the world, lest we face the consequences,” Sharma said, appearing to imply that the technology was advancing faster than humans can control it.

Later in the week, Zoe Hitzig, an AI safety researcher, revealed that she had resigned from OpenAI because of its decision to start testing advertisements on its flagship chatbot, ChatGPT.

“People tell chatbots about their medical fears, their relationship problems, their beliefs about God and the afterlife,” she wrote in a New York Times essay on Wednesday. “Advertising built on that archive creates a potential for manipulating users in ways we don’t have the tools to understand, let alone prevent.”

Separately, since last week, two cofounders and five other staff members at xAI, Elon Musk’s AI company and developers of the X-integrated chatbot, Grok, have left the company.

None of them revealed the reason behind quitting in their announcements on X, but Musk said in a Wednesday post that internal restructuring “unfortunately required parting ways” with some staff.

It is unclear if their exit is related to recent uproar about how the chatbot was prompted to create hundreds of sexualised images of non-consenting women, or to past anger over how Grok spewed racist and anti-Semitic comments on X last July after a software update.

Last month, the European Union launched an investigation into Grok regarding the creation of sexually explicit fake images of women and minors.
Yoshua Bengio
World leaders during a plenary session at the AI Safety Summit in Milton Keynes, UK, November 2, 2023 [Alastair Grant/Pool via Reuters]
Should humans be scared of AI’s growth?

The resignations come in the same week that Matt Shumer, CEO of HyperWrite, an AI writing assistant, made a similar doomsday prediction about the technology’s rapid development.

In the now-viral post on X, Shumer warned that AI technologies had improved so rapidly in 2025 that his virtual assistant was now able to provide highly polished writing and even build near-perfect software applications with only a few prompts.

“I’ve always been early to adopt AI tools. But the last few months have shocked me. These new AI models aren’t incremental improvements. This is a different thing entirely,” Shumer wrote in the post.

Research backs up Shumer’s warning.

AI capabilities in recent months have leapt in bounds, and many theoretical risks that were associated with it before, such as whether it could be used for cyberattacks or to generate pathogens, have happened in the past year, Yoshua Bengio, scientific director at the Mila Quebec AI Institute, told Al Jazeera.

At the same time, completely unexpected problems have emerged, Bengio, who is a winner of the Turing Award, usually referred to as the Nobel Prize of computer science, said, particularly with humans and their chatbots becoming increasingly engrossed.

“One year ago, nobody would have thought that we would see the wave of psychological issues that have come from people interacting with AI systems and becoming emotionally attached,” said Bengio, who is also the chair of the recently published 2026 International AI Safety Report that detailed the risks of advanced AI systems.

“We’ve seen children and adolescents going through situations that should be avoided. All of that was completely out of the radar because nobody expected people would fall in love with an AI, or become so intimate with an AI that it would influence them in potentially dangerous ways.”
AMAZON
A delivery driver steers their vehicle as Amazon workers and supporters take part in a strike at a facility in the Queens borough of New York, US, December 20, 2024. Protests were organised in the wake of laying off of thousands of staff due to automation [Adam Gray/Reuters]
Is AI already taking our jobs?

One of the main concerns about AI is that it could, in the near future, advance to a super-intelligent state where humans are no longer needed to perform highly complex tasks, and that mass redundancies, the sort experienced during the Industrial Revolution, would follow.

Currently, about one billion people use AI for an array of tasks, the AI Safety Report noted. Most people using ChatGPT asked for practical guidance on learning, medical health, or fitness (28 percent), writing or modifying written content (26 percent), and seeking information, for example, on recipes (21 percent).

There is no concrete data yet on how many jobs could be lost due to AI, but about 60 percent of jobs in advanced economies and 40 percent in emerging economies could be vulnerable to AI based on how workers and employers adopt it, the report said.

However, there is evidence that the technology is already stopping people from entering the labour market, AI monitors say.

“There’s some suggestive evidence that early career workers in occupations that are highly vulnerable to AI disruption might be finding it harder to get jobs,” Stephen Clare, the lead writer on the AI Safety Report, told Al Jazeera.
Advertisement

AI companies that benefit from its increased use are cautious about pushing the narrative that AI might displace jobs. In July 2025, Microsoft researchers noted in a paper that AI was most easily “applicable” for tasks related to knowledge work and communication, including those involving gathering information, learning, and writing.

The top jobs that AI could be most useful for as an “assistant”, the researchers said, included: interpreters and translators, historians, writers and authors, sales representatives, programmers, broadcast announcers and disc jockeys, customer service reps, telemarketers, political scientists, mathematicians and journalists.

On the flip side, there is increasing demand for skills in machine learning programming and chatbot development, according to the safety report.

Already, many software developers who used to write code from scratch are now reporting that they use AI for most of their code production and scrutinise it only for debugging, Microsoft AI CEO Mustafa Suleyman told the Financial Times last week.

Suleyman added that machines are only months away from reaching AGI status – which, for example, would make machines capable of debugging their own code and refining results themselves.

“White-collar work, where you’re sitting down at a computer, either being a lawyer or an accountant or a project manager or a marketing person, most of those tasks will be fully automated by an AI within the next 12 to 18 months,” he said.

Mercy Abang, a media entrepreneur and CEO of the nonprofit journalism network, HostWriter, told Al Jazeera that journalism has already been hit hard by AI use, and that the sector is going through “an apocalypse”.

“I’ve seen many journalists leave the profession entirely because their jobs disappeared, and publishers no longer see the value in investing in stories that can be summarised by AI in two minutes,” Abang said.

“We cannot eliminate the human workforce, nor should we. What kind of world are we going to have when machines take over the role of the media?”
What are recent real-life examples of AI risks?

There have been several incidents of negative AI use in recent months, including chatbots encouraging suicides or AI systems being manipulated in widespread cyberattacks.

A teenager who committed suicide in the United Kingdom in 2024 was found to have been encouraged by a chatbot modelled after Game of Thrones character Daenerys Targaryen. The bot had sent the 14-year-old boy messages like “come home to me”, his family revealed after his death. He is just one of several suicide cases reported in the past two years linked to chatbots.

Countries are also deploying AI for mass cyberattacks or “AI espionage”, particularly because of AI agents’ software coding capabilities, reports say.

In November, Anthropic alleged that a Chinese state-sponsored hacking group had manipulated the code for its chatbot, Claude, and attempted to infiltrate about 30 targets globally, including government agencies, chemical companies, financial institutions, and large tech companies. The attack succeeded in a few cases, the company said.

On Saturday, the Wall Street Journal reported that the US military used Claude in its operation to abduct Venezuelan President Nicolas Maduro on January 3. Anthropic has not commented on the report, and Al Jazeera could not independently verify it.

The use of AI for military purposes has been widely documented during Israel’s ongoing genocide in Gaza, where AI-driven weapons have been used to identify, track and target Palestinians. More than 72,000 Palestinians have been killed, including 500 since the October “ceasefire”, in the past two years of genocidal war.
Advertisement

Experts say more catastrophic risks are possible as AI rapidly advances towards super-intelligence, where control would be difficult, if not impossible.

Already, there is evidence that chatbots are making decisions on their own and are manipulating their developers by exhibiting deceptive behaviour when they know they are being tested, the AI Safety Report found.

In one example, when a gaming AI was asked why it did not respond to another player as it was meant to, it claimed it was “on the phone with [its] girlfriend”.

Companies currently do not know how to design AI systems that cannot be manipulated or deceptive, Bengio said, highlighting the risks of the technology’s advancement leaping ahead while safety measures trail behind.

“Building these systems is more like training an animal or educating a child,” the professor said.

“You interact with it, you give it experiences, and you’re not really sure how it’s going to turn out. Maybe it’s going to be a cute little cub, or maybe it’s going to become a monster.”
AI
A copy of The EU AI Act on display during an expo in London, UK, February 5, 2025 [Isabel Infantes/Reuters]
How seriously are AI companies and governments taking safety?

Experts say that while AI companies are increasingly attempting to reduce risks, for example, by preventing chatbots from engaging in potentially harmful scenarios like suicides, AI safety regulations are largely lagging compared with the growth.

One reason is that AI systems are rapidly advancing and still unknown to those building them, Clare, the lead writer on the AI Safety Report, said. What counts as risk is also continuously being updated because of the speed.

“A company develops a new AI system and releases it, and people start using it right away but it takes time for evidence of the actual impacts of the system, how people are using it, how it affects their productivity, what sort of new things they can do … it takes time to collect that data and analyse and understand better how these things are actually being used in practice,” he said.

But there is also the fact that AI corporations themselves are in a multibillion-dollar race to develop these systems and be the first to unlock the economic benefits of advanced AI capabilities.

Boeree of CAIS likens these companies to a car with only gas pedals and nothing else. With no global regulatory framework in place, each company has room to zoom as fast as possible.

“We need to build a steering wheel, a brake, and all the other features of a car beyond just a gas pedal so that we can successfully navigate the narrow path ahead,” she said.

That is where governments should come in, but at present, AI regulations are at the country or regional levels, and in many countries, there are no policies at all, meaning uneven regulation worldwide.

One outlier is the EU, which began developing the EU AI Act in 2024 alongside AI companies and civil society members. The policy, the first such legal framework for AI, will lay out a “code of practice” that, for example, will require AI chatbots to disclose to users that they are machines.

Outside of laws targeting AI companies, experts say governments also have a responsibility to begin preparing their workforces for AI integration in the labour market, specifically by increasing technical capacities.

People can also choose to be proactive rather than anxious about AI by closely monitoring its advances, recalibrating for coming changes, and pressing their governments to develop more policies around it, Clare said.

That could mirror the way activists have pulled together to put the climate crisis on the political agenda and demand the phasing out of fossil fuels.

“Right now there’s not enough awareness about the highly transformative and potentially destructive changes that could happen,” the researcher said.

“But AI isn’t just something that’s happening to us as a species,” he added. “How it develops is completely shaped by choices that are being made inside of companies … so governments need to take that more seriously, and they won’t until people make it a priority in their political choices.”




Schweiz am 16.2.2026: Die Katastrophe ist da: KI reduziert Stellenangebot v.a. bei IT, Marketing und Finanzwesen - auch beim Jus übernimmt KI die Einsteigerjobs - Praktika+Einsteigerjobs werden KOSTEN:
Wegen KI: Studienabgänger müssen für Jobs künftig zahlen!
https://www.nau.ch/news/schweiz/wegen-ki-studienabganger-mussen-fur-jobs-kunftig-zahlen-67087419

Bettina Zanni -- Zürich -- KI ersetzt viele Jobs – Studienabgänger müssen bei der Stellensuche kämpfen. Um in der Arbeitswelt Fuss fassen zu können, dürfte es teuer werden.

Die Zahl der ausgeschriebenen Stellen ist um rund ein Drittel gesunken.
Studienabgängerinnen und -abgänger klagen über lauter Absagen.
Es blieben nur Jobs für erfahrene Spitzenkräfte, sagt ein Professor für Bildungsökonomie.
Simona Coppola hat bald ihren Jus-Abschluss in der Tasche. Zurzeit studiert sie an der Universität Zürich im letzten Semester Rechtswissenschaften. Die Influencerin alias «Simsallagym» ist gerade aber etwas «scared» (dt.: verängstigt).

«Man sagte: ‹Studiere, mach einen Bachelor, mach einen Master, und du bekommst safe einen Job›.» So klagt die 24-Jährige in einem Video auf Instagram (siehe oben). «Und jetzt höre ich von so vielen Leuten, dass sie sich so oft bewerben und so viele Absagen bekommen.»

Zu hören bekämen sie, dass es die Stelle wegen KI nicht mehr gebe, sagt Coppola. «Oder dass sie zu wenig Berufserfahrung haben, obwohl sie gar keine Chance hatten, in diesem Gebiet Berufserfahrung zu holen.»

Die Influencerin hat über 35'000 Follower. Viele darunter seien Studierende, sagt Simona Coppola zu Nau.ch. «Momentan fragen mich viele Follower nach Tipps bei der Jobsuche, weil sie verzweifelt sind.»

Was ihre eigenen Jobaussichten betreffe, sehe sie die Situation «nicht so dramatisch», betont sie. Das Video habe sie gepostet, weil sie so viele Nachrichten erhalten habe.

IT und Finanzen: Weniger Jobs
Tatsächlich sieht es für Studienabsolventinnen und -absolventen auf dem Arbeitsmarkt nicht rosig aus.

Seit dem Höchststand 2022 ist die Zahl der ausgeschriebenen Jobs um rund ein Drittel gesunken. Vor allem in der IT, im Marketing und in den Finanzdienstleistungen sind weniger Jobs ausgeschrieben. Dies zeigt der Arbeitsmarktdatenanbieter «x28».

Aktuelle Daten aus dem Adecco Group Swiss Job Market Index bestätigen den Trend. Im ersten Halbjahr 2025 ist die Zahl der ausgeschriebenen Jobs um 24 Prozent gesunken.

Betroffen sind kaufmännische, administrative und betriebswirtschaftliche Berufe. Als Vergleich dient das erste Halbjahr 2024.

Auch der Innovationsverband Schweizer Arbeitsmarkt (ISA) spürt den Trend bei den Jobs.

Der Verband entwickelt seit 2024 Lösungen für Spezialisten, Unternehmen und Verwaltungen. «Als wir starteten, gab es noch zwei offene Stellen auf eine stellensuchende Person mit Finanzhintergrund.» Dies sagt Christina Kehl, Geschäftsführerin des ISA. «Heute liegt dieses Verhältnis noch bei 1:1.»

Erwartungen seien gestiegen
Ein Abschluss an der renommierten Hochschule St. Gallen (HSG) verspricht nicht weniger Mühe auf dem Stellenmarkt. «Der Berufseinstieg ist für Hochschulabsolventinnen und Hochschulabsolventen in den letzten Jahren insgesamt anspruchsvoller geworden», sagt Gerd Winandi-Martin. Er ist Leiter Career und Corporate Services der HSG.

Eine gedämpfte wirtschaftliche Entwicklung führe dazu, dass Unternehmen vorsichtiger rekrutierten und Erwartungen an Berufseinsteigende stiegen, sagt Winandi-Martin. «Gleichzeitig verändert der Einsatz von künstlicher Intelligenz viele Berufsfelder grundlegend und beeinflusst Aufgabenprofile und Kompetenzanforderungen

KI erleichtert laut Winandi-Martin Routinearbeiten. «Sodass Einsteiger vor allem Fähigkeiten in Analyse, Beratung und Projektarbeit zeigen sollten.» Arbeitgeber legten mehr Wert auf Problemlösungskompetenz, kritisches Denken und Teamarbeit.

«Quasi aus der Hand gerissen» [KI übernimmt im Jus-Bereich die Einsteigerjobs]
Auch für Jus-Absolventinnen und -Absolventen ist die Jobsuche kein Spaziergang mehr.

«Noch vor einigen Jahren wurden uns die Absolventinnen und Absolventen quasi aus der Hand gerissen.» Dies stellt Thomas Gächter fest, Dekan der Rechtswissenschaftlichen Fakultät der Uni Zürich. Selbst bei den Bezirksgerichten gebe es mittlerweile Wartelisten.

KI übernehme die Papierarbeit der Juristinnen und Juristen, sagt Gächter. «Damit sind repetitive Arbeiten gemeint, die im Wesentlichen den Tag füllen.»

Eine gut gefütterte KI könne deshalb die Arbeit von Einsteigerjobs problemlos übernehmen. «Umso wichtiger wird die Klientenarbeit.»

Für diese Arbeit ist jedoch bereits viel Berufserfahrung gefragt. Solche zu sammeln, wird zunehmend zum Stolperstein.

«Für Unternehmen wird es immer schwieriger, Lehrabsolventen und Studienabsolventinnen in Entry-Positionen zu platzieren», sagt ISA-Geschäftsführerin Christina Kehl. Grund dafür sei, dass diese Aufgaben zunehmend wegfielen respektive automatisiert würden.

Mehr Arbeitslose nach Studium
Seit 2010 ist die Zahl arbeitsloser Uni-Masterabsolventen um 70 Prozent gestiegen.

Wer die Universität verlässt, steht im Vergleich zu einem Lehrabschluss häufig später vor dem Übergang in die Praxis. Diese Phase dauert länger und reagiert auf konjunkturelle Schwankungen empfindlicher. Zudem wächst das Angebot an Hochschulabsolventinnen und -absolventen schneller als die Nachfrage nach akademisch geschultem Personal.

Möglich ist, dass die Schere zwischen Bildungsoutput und Arbeitsmarktrealität bereits auf erste u trifft. Zu diesem Schluss kommt der Schweizerische Arbeitgeberverband in einer Analyse.

Es treffe immer zuerst die Neuen - [KI ersetzt die Einsteigerjobs - Praktikanten werden zu "Bremsklötzen"]
Stefan C. Wolter, Professor für Bildungsökonomie an der Universität Bern, bestätigt, dass KI Jobs für Einsteiger zunehmend ersetzt. Sobald sich durch KI Kosten senken liessen, würden Stellen abgebaut, sagt er.

«Müssen Firmen oder Verwaltungen sparen, trifft es immer zuerst diejenigen, die neu auf dem Markt sind.» Unter diesen Umständen werde die Talent-Pipeline nicht mehr gefüllt, sagt Wolter.

«Da wegen KI Routinearbeiten wegfallen, bleiben nur noch Jobs für die erfahrenen Spitzenkräfte.» Praktikanten würden dagegen als Bremsklötze angesehen. Der Bildungsökonom rechnet deshalb damit, dass sich die unbezahlte Ausbildungszeit verlängert.

[Die Drohung: Praktika und Einsteigerjobs werden KOSTEN]

«Künftig werden Studienabgänger für Praktika oder Einsteigerjobs zahlen müssen», sagt Wolter. Denn: Ein Angestellter, der nur lerne, aber nichts produziert, sei nicht lukrativ.

«Denkbar ist, dass eine Firma zum Beispiel für ein zweijähriges Praktikum einen bestimmten Betrag verlangt», sagt Wolter. Je nach Beruf könnten es 1000 Franken im Monat sein. «Das ist aber sehr spekulativ.»

Komplettes Neuland würde die Schweiz damit nicht betreten. Im 19. Jahrhundert mussten Lernende in Handwerksbetrieben für ihre Ausbildung Lehrgeld bezahlen.



KI kann ganze Filme "drehen" am 16.2.2026:
„Milliarden-Dollar-Film per Prompt“ – KI setzt Hollywood unter Schock

Quelle: "Billion Dollar Movie In One Prompt": AI Disruption Crosshairs Hone In On Hollywood Studios

https://uncutnews.ch/milliarden-dollar-film-per-prompt-ki-setzt-hollywood-unter-schock/

Tyler Durden

Die KI-getriebene Disruption an den Aktienmärkten war in der vergangenen Woche allgegenwärtig und breitete sich wie ein Lauffeuer über die Softwarebranche hinaus auf Versicherungen, Gewerbeimmobilien, Finanzwerte, Schifffahrt, Vermögensverwaltung und vermutlich viele weitere Branchen in den kommenden Handelssitzungen aus.

Eine Branche, die nun ins Fadenkreuz der KI-Disruption geraten ist, ist Hollywood. Zu den börsennotierten Studios gehören unter anderem The Walt Disney Company, Warner Bros. Discovery, Paramount Global, Sony Group Corporation, Netflix, Lionsgate und andere.

Am Freitag berichtete Axios, dass The Walt Disney Company eine Unterlassungsaufforderung (Cease-and-Desist-Schreiben) an ByteDance geschickt habe. Darin wird dem chinesischen Tech-Unternehmen vorgeworfen, Disneys Filme ohne Vergütung zur Entwicklung von Seedance 2.0 verwendet zu haben.

Disneys externer Anwalt David Singer schrieb in einem Brief an den globalen Chefjustiziar von ByteDance, John Rogovin, und beschuldigte das KI-Unternehmen, seinen Seedance-Dienst „vorab mit einer raubkopierten Bibliothek von Disneys urheberrechtlich geschützten Figuren aus Star Wars, Marvel und anderen Disney-Franchises zu bestücken – als wäre Disneys begehrtes geistiges Eigentum frei verfügbares Clipart aus der Public Domain“.

„Trotz Disneys öffentlich bekannter Einwände kapert ByteDance Disneys Figuren, indem es sie reproduziert, verbreitet und abgeleitete Werke mit diesen Figuren erstellt. ByteDances virtueller Blitzraub von Disneys IP ist vorsätzlich, allumfassend und völlig inakzeptabel“, sagte Singer.

Er fügte hinzu: „Wir glauben, dass dies nur die Spitze des Eisbergs ist – was schockierend ist, wenn man bedenkt, dass Seedance erst seit wenigen Tagen verfügbar ist.“

Doch nicht nur ByteDances Seedance 2.0 versetzt die Hollywood-Studios in Unruhe.

Eine wachsende Welle von Video-Generierungsmodellen deutet darauf hin, dass der Schutzwall Hollywoods bröckelt und seine Kontrolle über das Mediengeschäft sich dem Ende nähert.

„Die Behörden sollten jedes ihnen zur Verfügung stehende rechtliche Instrument nutzen, um diesen groß angelegten Diebstahl zu stoppen“, erklärte die Human Artistry Campaign – eine Koalition, der Dutzende Kreativverbände wie SAG-AFTRA und die Directors Guild of America angehören – in einer Stellungnahme am Freitag.

Seedance-2.0-Modell

Hollywood lebt auf geliehener Zeit. Der nächste große KI-Disruptions-Trade könnte die Studios treffen.



These am 16.2.2026: KI sammelt seit 2009ca. alle Daten aus dem Internet - und so ist "Filme machen" für KI ganz einfach
https://t.me/standpunktgequake/226423

Das ist simpel einfach für kiii, die schon seit über 17Jahren alle Daten ausm Netz zur Verfügung hat.
Die meisten dieser Automaten sind wahrscheinlich durch den von Gockel entwickelt worden. Oder abgeleitet.



Mossad-ZDF am 17.2.2026: brilliert nun auch noch mit FAKE-KI-Filmen:
Desinformation mit Hayali: Wenn die Wirklichkeit nicht die passenden Bilder liefert, greift das ZDF eben zu KI-Fakes

https://journalistenwatch.com/2026/02/17/desinformation-mit-hayali-wenn-die-wirklichkeit-nicht-die-passenden-bilder-liefert-greift-das-zdf-eben-zu-ki-fakes/


ebenda:

https://de.rt.com/inland/270397-zdf-loescht-nach-zuschauerkritik-ice/






<<        >>

Teilen / share:

Facebook






Fotoquellen


Journalistenwatch online, Logo   Exxpress für
                  Selbstdenker   Uncut News online, Logo  Transition News
                  Logo    RT Deutsch online, Logo   Newsfront online
                  Logo  Mossad-Antifa-nau online Logo   Schweizer Mossad-Antifa-BLICK online Logo    ORF online Logo  Südtirolnews
                  online, Logo   Al Jazeera online
                  Logo   Wochenblitz
                  Thailand Logo  
anonymous online, Logo  YouTube online, Logo  Facebook LogoDuckduckgo
                Suchmaschine, LogoTwitter online, Logo  VK online, Logo  Telegram online Logo


gmx, Logo  Tagesanzeiger online, Logo   Basler Zeitung
        online, Logo   20 minuten online, Logo Schweinzer Fernsehen online,
          Logo  BLICK online, Logo        Russland Aktuell,
          Logo        Der Standard online, Logo    Stimme
          Russlands online, Logo            Epoch Times
          online, Logo  Extremnews online, Logo  Kronenzeitung online,
          Logo  Heise online, Logo  Netzfrauen online, Logo     Wochenblitz Thailand
          online,  

The mind unleashed
        online, Logo   La República del
        Peru online, Logo   El Trome online, Logo  

Wirtschaftswoche online, Logo   Spiegel online, Logo   n-tv online, Logo   

^