Suchergebnisse
3264 Ergebnisse gefunden mit einer leeren Suche
- Methanothermobacter ist Mikrobe des Jahres 2021
Die Mikrobe des Jahres 2021 produziert Biogas – und könnte damit einen Beitrag zur Energiewende leisten, berichtet der Verband Biologie, Biowissenschaften und Biomedizin in Deutschland e.V.. Methanothermobacter und seine Verwandten tragen zudem zur Abwasserwasserreinigung bei und sichern damit unsere Trinkwasserversorgung. Ihre zunehmende Aktivität in Böden, Gewässern und Nutztieren ist gleichzeitig eine Warnung vor menschengemachten Einflüssen auf das Klima. Diesen für die Umwelt und unser Klima so bedeutenden Mikroorganismus wählte die Vereinigung für Allgemeine und Angewandte Mikrobiologie (VAAM) zur Mikrobe des Jahres 2021. Weiterlesen unter: http://mikrobe-des-jahres.de
- Methanothermobacter ist Mikrobe des Jahres 2021
Die Mikrobe des Jahres 2021 produziert Biogas – und könnte damit einen Beitrag zur Energiewende leisten, berichtet der Verband Biologie, Biowissenschaften und Biomedizin in Deutschland e.V.. Methanothermobacter und seine Verwandten tragen zudem zur Abwasserwasserreinigung bei und sichern damit unsere Trinkwasserversorgung. Ihre zunehmende Aktivität in Böden, Gewässern und Nutztieren ist gleichzeitig eine Warnung vor menschengemachten Einflüssen auf das Klima. Diesen für die Umwelt und unser Klima so bedeutenden Mikroorganismus wählte die Vereinigung für Allgemeine und Angewandte Mikrobiologie (VAAM) zur Mikrobe des Jahres 2021. Weiterlesen unter: http://mikrobe-des-jahres.de
- Arnold Schwarzenegger mit Videobotschaft
Der ehemalige Gouverneur von Kalifornien hat sich mit einer persönlichen Videobotschaft zu Wort gemeldet. Damit bezieht der in Österreich geborene Schauspieler Stellung zu den aktuellen Ereignissen in den USA. Praedikat: Sehenswert.
- Arnold Schwarzenegger mit Videobotschaft
Der ehemalige Gouverneur von Kalifornien hat sich mit einer persönlichen Videobotschaft zu Wort gemeldet. Damit bezieht der in Österreich geborene Schauspieler Stellung zu den aktuellen Ereignissen in den USA. Praedikat: Sehenswert.
- Arnold Schwarzenegger mit Videobotschaft
Der ehemalige Gouverneur von Kalifornien hat sich mit einer persönlichen Videobotschaft zu Wort gemeldet. Damit bezieht der in Österreich geborene Schauspieler Stellung zu den aktuellen Ereignissen in den USA. Praedikat: Sehenswert.
- Bundesbehörde BfR will sich von externen Industrie- Experten beraten lassen
Wie unabhängig kann eine Bundesbehörde sein, die ihre Kommissionen in Zukunft mit externen Beratern besetzen lassen will? Die frage zu stellen ist angebracht, wie eine aktuelle Mitteilung des BfR aufzeigt. Darin heisst es: "Das Bundesinstitut für Risikobewertung (BfR) hat Kommissionen eingerichtet, um sich in wissenschaftlichen Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit sowie der Risikokommunikation von externen Expertinnen und Experten beraten zu lassen. Für die neue Berufungsperiode, die im Jahr 2022 beginnt, läuft jetzt die Bewerbungsfrist. Für 12 der 13 BfR-Kommissionen werden derzeit u.a. Wissenschaftlerinnen und Wissenschaftler aus den Bereichen Bio- und Lebensmittelchemie, Human- und Veterinärmedizin, Toxikologie, Pharmakologie, Statistik, Kommunikationswissenschaft, Soziologie oder Psychologie gesucht. Eine Ausschreibung zur Neuberufung der Bf3R-Kommission erfolgt zu einem späteren Zeitpunkt". Bereits zum fünften Mal suche das BfR qualifizierte Expertinnen und Experten aus allen Bereichen der Wissenschaft und Forschung, Bundes- und Landesbehörden, Industrie, Nichtregierungsorganisationen oder anderen Verbänden, die durch eine ehrenamtliche Kommissionsarbeit ihre Expertise zur Beratung des BfR einsetzen wollen. Die BfR-Kommissionen sollen das BfR in offenen Fachfragen wissenschaftlich beraten. Die Mitglieder der Kommissionen seien ausdrücklich aufgefordert, den jeweiligen Stand von Wissenschaft und Technik kritisch auf die aktuelle Bewertungsarbeit des BfR zu reflektieren und zukünftige Arbeitsfelder der Risikobewertung aufzuzeigen. Die BfR-Kommissionen hätten "eine ausschließlich beratende Funktion. Sie sind nicht in die Risikobewertung des BfR eingebunden".
- Bundesbehörde BfR will sich von externen Industrie- Experten beraten lassen
Wie unabhängig kann eine Bundesbehörde sein, die ihre Kommissionen in Zukunft mit externen Beratern besetzen lassen will? Die frage zu stellen ist angebracht, wie eine aktuelle Mitteilung des BfR aufzeigt. Darin heisst es: "Das Bundesinstitut für Risikobewertung (BfR) hat Kommissionen eingerichtet, um sich in wissenschaftlichen Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit sowie der Risikokommunikation von externen Expertinnen und Experten beraten zu lassen. Für die neue Berufungsperiode, die im Jahr 2022 beginnt, läuft jetzt die Bewerbungsfrist. Für 12 der 13 BfR-Kommissionen werden derzeit u.a. Wissenschaftlerinnen und Wissenschaftler aus den Bereichen Bio- und Lebensmittelchemie, Human- und Veterinärmedizin, Toxikologie, Pharmakologie, Statistik, Kommunikationswissenschaft, Soziologie oder Psychologie gesucht. Eine Ausschreibung zur Neuberufung der Bf3R-Kommission erfolgt zu einem späteren Zeitpunkt". Bereits zum fünften Mal suche das BfR qualifizierte Expertinnen und Experten aus allen Bereichen der Wissenschaft und Forschung, Bundes- und Landesbehörden, Industrie, Nichtregierungsorganisationen oder anderen Verbänden, die durch eine ehrenamtliche Kommissionsarbeit ihre Expertise zur Beratung des BfR einsetzen wollen. Die BfR-Kommissionen sollen das BfR in offenen Fachfragen wissenschaftlich beraten. Die Mitglieder der Kommissionen seien ausdrücklich aufgefordert, den jeweiligen Stand von Wissenschaft und Technik kritisch auf die aktuelle Bewertungsarbeit des BfR zu reflektieren und zukünftige Arbeitsfelder der Risikobewertung aufzuzeigen. Die BfR-Kommissionen hätten "eine ausschließlich beratende Funktion. Sie sind nicht in die Risikobewertung des BfR eingebunden".
- Bundesbehörde BfR will sich von externen Industrie- Experten beraten lassen
Wie unabhängig kann eine Bundesbehörde sein, die ihre Kommissionen in Zukunft mit externen Beratern besetzen lassen will? Die frage zu stellen ist angebracht, wie eine aktuelle Mitteilung des BfR aufzeigt. Darin heisst es: “Das Bundesinstitut für Risikobewertung (BfR) hat Kommissionen eingerichtet, um sich in wissenschaftlichen Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit sowie der Risikokommunikation von externen Expertinnen und Experten beraten zu lassen. Für die neue Berufungsperiode, die im Jahr 2022 beginnt, läuft jetzt die Bewerbungsfrist. Für 12 der 13 BfR-Kommissionen werden derzeit u.a. Wissenschaftlerinnen und Wissenschaftler aus den Bereichen Bio- und Lebensmittelchemie, Human- und Veterinärmedizin, Toxikologie, Pharmakologie, Statistik, Kommunikationswissenschaft, Soziologie oder Psychologie gesucht. Eine Ausschreibung zur Neuberufung der Bf3R-Kommission erfolgt zu einem späteren Zeitpunkt”. Bereits zum fünften Mal suche das BfR qualifizierte Expertinnen und Experten aus allen Bereichen der Wissenschaft und Forschung, Bundes- und Landesbehörden, Industrie, Nichtregierungsorganisationen oder anderen Verbänden, die durch eine ehrenamtliche Kommissionsarbeit ihre Expertise zur Beratung des BfR einsetzen wollen. Die BfR-Kommissionen sollen das BfR in offenen Fachfragen wissenschaftlich beraten. Die Mitglieder der Kommissionen seien ausdrücklich aufgefordert, den jeweiligen Stand von Wissenschaft und Technik kritisch auf die aktuelle Bewertungsarbeit des BfR zu reflektieren und zukünftige Arbeitsfelder der Risikobewertung aufzuzeigen. Die BfR-Kommissionen hätten “eine ausschließlich beratende Funktion. Sie sind nicht in die Risikobewertung des BfR eingebunden”.
- Superintelligente Maschinen lassen sich nicht kontrollieren
Wissenschaftler*innen und Philosoph*innen warnen vor den Gefahren einer unkontrollierbaren, superintelligente KI. Ein internationales Forscherteam unter Beteiligung des Forschungsbereichs Mensch und Maschine am Max-Planck-Institut für Bildungsforschung zeigt anhand theoretischer Berechnungen, dass es nicht möglich ist, eine superintelligente KI zu kontrollieren. Die Studie ist im Journal of Artificial Intelligence Research erschienen. Das Szenario: "Angenommen jemand würde eine Künstliche Intelligenz (KI) programmieren, deren Intelligenz dem Menschen überlegen wäre und die selbstständig alles lernen könnte. Angeschlossen an das Internet hätte die KI Zugriff auf alle Daten der Menschheit, sie könnte alle bestehenden Programme ersetzen und alle ans Internet angeschlossenen Maschinen kontrollieren. Ist das eine Utopie oder ein Horrorszenario? Würde die KI Krebs heilen, den Weltfrieden herbeiführen und die Klimakatastrophe verhindern? Oder würde sie die Menschheit vernichten und die Erde übernehmen?" Für Manuel Cebrian, Leiter der Forschungsgruppe „Digitale Mobilisierung“ am Forschungsbereich Mensch und Maschine am Max-Planck-Institut für Bildungsforschung und Co-Autor der Studie, war das ein Grund für die Erstellung der Studie. Das Forscherteam konzipierte in ihrer Studie einen theoretischen Algorithmus, der sicherstellt, dass eine superintelligenten KI unter keinen Umständen der Menschheit schadet. Dieser Algorithmus simuliert zunächst das Verhalten der KI und stoppt sie, wenn er es als schädlich erachtet. Jedoch zeigt eine genaue Analyse dieses Algorithmus, dass nach aktuellem Stand der Computerwissenschaften ein solcher Algorithmus nicht programmiert werden kann. „Bricht man das Problem auf einfache Grundregeln aus der theoretischen Informatik herunter, zeigt sich, dass ein Algorithmus, der einer KI befehlen würde, die Welt nicht zu zerstören, sich womöglich aufhängen würde. Man wüsste dann nicht, ob der Algorithmus die Bedrohung noch analysiert oder ob er aufgehört hat, die schädliche KI einzudämmen. Das macht diesen Algorithmus praktisch unbrauchbar“, sagt Iyad Rahwan, Direktor des Forschungsbereichs Mensch und Maschine. Auf Basis dieser Berechnungen ist es somit nicht möglich, einen Algorithmus zu programmieren, der erkennt, ob eine KI der Welt Schaden zufügen würde oder nicht. Dazu kommt, dass wir möglicherweise nicht einmal erkennen könnten, ob eine Maschine superintelligent ist. Denn, ob eine Maschine eine dem Menschen überlegene Intelligenz besitzt, lässt sich nach aktuellen Erkenntnissen ebenfalls nicht berechnen. Das Max-Planck-Institut für Bildungsforschung wurde 1963 in Berlin gegründet und ist als interdisziplinäre Forschungseinrichtung dem Studium der menschlichen Entwicklung und Bildung gewidmet. Das Institut gehört zur Max-Planck-Gesellschaft zur Förderung der Wissenschaften e. V., einer der führenden Organisationen für Grundlagenforschung in Europa. Originalpublikation: Alfonseca, M., Cebrian, M., Anta, A. F., Coviello, L., Abeliuk, A., & Rahwan, I. (2021). Superintelligence Cannot be Contained: Lessons from Computability Theory. Journal of Artificial Intelligence Research, 70, 65-76. https://doi.org/10.1613/jair.1.12202
- Superintelligente Maschinen lassen sich nicht kontrollieren
Wissenschaftler*innen und Philosoph*innen warnen vor den Gefahren einer unkontrollierbaren, superintelligente KI. Ein internationales Forscherteam unter Beteiligung des Forschungsbereichs Mensch und Maschine am Max-Planck-Institut für Bildungsforschung zeigt anhand theoretischer Berechnungen, dass es nicht möglich ist, eine superintelligente KI zu kontrollieren. Die Studie ist im Journal of Artificial Intelligence Research erschienen. Das Szenario: "Angenommen jemand würde eine Künstliche Intelligenz (KI) programmieren, deren Intelligenz dem Menschen überlegen wäre und die selbstständig alles lernen könnte. Angeschlossen an das Internet hätte die KI Zugriff auf alle Daten der Menschheit, sie könnte alle bestehenden Programme ersetzen und alle ans Internet angeschlossenen Maschinen kontrollieren. Ist das eine Utopie oder ein Horrorszenario? Würde die KI Krebs heilen, den Weltfrieden herbeiführen und die Klimakatastrophe verhindern? Oder würde sie die Menschheit vernichten und die Erde übernehmen?" Für Manuel Cebrian, Leiter der Forschungsgruppe „Digitale Mobilisierung“ am Forschungsbereich Mensch und Maschine am Max-Planck-Institut für Bildungsforschung und Co-Autor der Studie, war das ein Grund für die Erstellung der Studie. Das Forscherteam konzipierte in ihrer Studie einen theoretischen Algorithmus, der sicherstellt, dass eine superintelligenten KI unter keinen Umständen der Menschheit schadet. Dieser Algorithmus simuliert zunächst das Verhalten der KI und stoppt sie, wenn er es als schädlich erachtet. Jedoch zeigt eine genaue Analyse dieses Algorithmus, dass nach aktuellem Stand der Computerwissenschaften ein solcher Algorithmus nicht programmiert werden kann. „Bricht man das Problem auf einfache Grundregeln aus der theoretischen Informatik herunter, zeigt sich, dass ein Algorithmus, der einer KI befehlen würde, die Welt nicht zu zerstören, sich womöglich aufhängen würde. Man wüsste dann nicht, ob der Algorithmus die Bedrohung noch analysiert oder ob er aufgehört hat, die schädliche KI einzudämmen. Das macht diesen Algorithmus praktisch unbrauchbar“, sagt Iyad Rahwan, Direktor des Forschungsbereichs Mensch und Maschine. Auf Basis dieser Berechnungen ist es somit nicht möglich, einen Algorithmus zu programmieren, der erkennt, ob eine KI der Welt Schaden zufügen würde oder nicht. Dazu kommt, dass wir möglicherweise nicht einmal erkennen könnten, ob eine Maschine superintelligent ist. Denn, ob eine Maschine eine dem Menschen überlegene Intelligenz besitzt, lässt sich nach aktuellen Erkenntnissen ebenfalls nicht berechnen. Das Max-Planck-Institut für Bildungsforschung wurde 1963 in Berlin gegründet und ist als interdisziplinäre Forschungseinrichtung dem Studium der menschlichen Entwicklung und Bildung gewidmet. Das Institut gehört zur Max-Planck-Gesellschaft zur Förderung der Wissenschaften e. V., einer der führenden Organisationen für Grundlagenforschung in Europa. Originalpublikation: Alfonseca, M., Cebrian, M., Anta, A. F., Coviello, L., Abeliuk, A., & Rahwan, I. (2021). Superintelligence Cannot be Contained: Lessons from Computability Theory. Journal of Artificial Intelligence Research, 70, 65-76. https://doi.org/10.1613/jair.1.12202
- Superintelligente Maschinen lassen sich nicht kontrollieren
Wissenschaftler*innen und Philosoph*innen warnen vor den Gefahren einer unkontrollierbaren, superintelligente KI. Ein internationales Forscherteam unter Beteiligung des Forschungsbereichs Mensch und Maschine am Max-Planck-Institut für Bildungsforschung zeigt anhand theoretischer Berechnungen, dass es nicht möglich ist, eine superintelligente KI zu kontrollieren. Die Studie ist im Journal of Artificial Intelligence Research erschienen. Das Szenario: “Angenommen jemand würde eine Künstliche Intelligenz (KI) programmieren, deren Intelligenz dem Menschen überlegen wäre und die selbstständig alles lernen könnte. Angeschlossen an das Internet hätte die KI Zugriff auf alle Daten der Menschheit, sie könnte alle bestehenden Programme ersetzen und alle ans Internet angeschlossenen Maschinen kontrollieren. Ist das eine Utopie oder ein Horrorszenario? Würde die KI Krebs heilen, den Weltfrieden herbeiführen und die Klimakatastrophe verhindern? Oder würde sie die Menschheit vernichten und die Erde übernehmen?” Für Manuel Cebrian, Leiter der Forschungsgruppe „Digitale Mobilisierung“ am Forschungsbereich Mensch und Maschine am Max-Planck-Institut für Bildungsforschung und Co-Autor der Studie, war das ein Grund für die Erstellung der Studie. Das Forscherteam konzipierte in ihrer Studie einen theoretischen Algorithmus, der sicherstellt, dass eine superintelligenten KI unter keinen Umständen der Menschheit schadet. Dieser Algorithmus simuliert zunächst das Verhalten der KI und stoppt sie, wenn er es als schädlich erachtet. Jedoch zeigt eine genaue Analyse dieses Algorithmus, dass nach aktuellem Stand der Computerwissenschaften ein solcher Algorithmus nicht programmiert werden kann. „Bricht man das Problem auf einfache Grundregeln aus der theoretischen Informatik herunter, zeigt sich, dass ein Algorithmus, der einer KI befehlen würde, die Welt nicht zu zerstören, sich womöglich aufhängen würde. Man wüsste dann nicht, ob der Algorithmus die Bedrohung noch analysiert oder ob er aufgehört hat, die schädliche KI einzudämmen. Das macht diesen Algorithmus praktisch unbrauchbar“, sagt Iyad Rahwan, Direktor des Forschungsbereichs Mensch und Maschine. Auf Basis dieser Berechnungen ist es somit nicht möglich, einen Algorithmus zu programmieren, der erkennt, ob eine KI der Welt Schaden zufügen würde oder nicht. Dazu kommt, dass wir möglicherweise nicht einmal erkennen könnten, ob eine Maschine superintelligent ist. Denn, ob eine Maschine eine dem Menschen überlegene Intelligenz besitzt, lässt sich nach aktuellen Erkenntnissen ebenfalls nicht berechnen. Das Max-Planck-Institut für Bildungsforschung wurde 1963 in Berlin gegründet und ist als interdisziplinäre Forschungseinrichtung dem Studium der menschlichen Entwicklung und Bildung gewidmet. Das Institut gehört zur Max-Planck-Gesellschaft zur Förderung der Wissenschaften e. V., einer der führenden Organisationen für Grundlagenforschung in Europa. Originalpublikation: Alfonseca, M., Cebrian, M., Anta, A. F., Coviello, L., Abeliuk, A., & Rahwan, I. (2021). Superintelligence Cannot be Contained: Lessons from Computability Theory. Journal of Artificial Intelligence Research, 70, 65-76. https://doi.org/10.1613/jair.1.12202
- Schweiz: Textilreinigungen und Wäschereien fordern Unterstützung vom Bund
Ohne Unterstützung durch den Bund wird es für viele Wäschereien und Textilreinigungen nicht möglich sein, das Ende der Pandemie zu erleben, um danach wieder «wie gewohnt» ihre wichtigen Dienstleistungen zu erbringen. Es gelte, ein Branchensterben zu verhindern. Das jedenfalls fordert der Verband Textilpflege Schweiz VTS in einem offenen Brief an den Bundesrat. Danach sollten zusätzliche Unterstützungsleistungen nicht nur den direkt vom Lock Down betroffenen Branchen zukommen, sondern auch all jenen, welche von eben diesen Sektoren abhängen würden. 52 Prozent der Verbandsmitglieder geben an, unter den gegenwärtigen Bedingungen den Betrieb nicht länger als noch ein paar wenige Monate weiterführen zu können, dann sind die Reserven aufgebraucht. Mehr dazu lesen Sie in der Beilage.
