• SETI.Germany News RSS-Feed

    von Veröffentlicht: 18.02.2017 09:25
    1. Kategorien:
    2. Projekte

    Das Forschungszentrum ICRAR, an welchem theSkyNet beheimatet ist, durfte einen Kleinplaneten benennen:

    Kleinplanet wurde Bernard genannt
    Ein Kleinplanet im Sonnensystem wird fortan als Bernardbowen bekannt sein, nachdem das australische Bürgerwissenschaftsprojekt theSkyNet einen Wettbewerb zur Benennung des Himmelskörpers gewonnen hat.

    Der Kleinplanet wurde vom Internationalen Zentrum für Radioastronomieforschung (International Centre for Radio Astronomy Research, ICRAR) zu Ehren des Gründungsvorsitzenden Dr. Bernard Bowen benannt.

    Bernardbowen befindet sich im Asteroidengürtel zwischen Mars und Jupiter und benötigt 3,26 Erdjahre für einen Umlauf um die Sonne.

    Der Kleinplanet wurde am 28. Oktober 1991 entdeckt und war bisher unter der Bezeichnung (6196) 1991 UO4 bekannt.

    Das am ICRAR beheimatete theSkyNet läuft seit 2011 und bekommt Spenden in Form von freier Rechenleistung von Bürgerwissenschaftlern, um australischen Astronomen beim Lüften der Geheimnisse des Universums zu helfen.

    Seine etwa 50000 Freiwilligen haben an einem Wettbewerb der Internationalen Astronomischen Union (IAU) zur Benennung von Planeten außerhalb unseres Sonnensystems teilgenommen.

    Die Projektgründer von ICRAR haben auch das Recht der Namensgebung für einen Kleinplaneten im Sonnensystem gewonnen.
    Bernardbowen war einer von 17 Kleinplaneten, die heute getauft wurden.

    Andere neu benannte Kleinplaneten sind unter anderem Kagura (nach einem traditionellen Shinto-Theatertanz) und Mehdia, was dem arabischen Wort für Geschenk entspricht.

    Dr. Bowen ist als einer der besten Wissenschaftsadministratoren des Landes bekannt und hatte den Vorsitz über wissenschaftliche Fortschritte von den Ozeanen bis zum Himmel. Er war maßgeblich an der Gründung des ICRAR im Jahr 2009 beteiligt und half dabei, einen Teil des Square-Kilometre-Array-Teleskops nach Westaustralien zu bringen.

    Eine vollständige Zitatliste der Kleinplaneten ist im IAU Minor Planet Circular (engl.) zu finden.
    Bernardbowen und eine interaktive Darstellung seiner Position im Sonnensystem können auf der Seite des Minor Planet Center gefunden werden.
    17.02.2017, 7:44:38 MEZ

    Originaltext:
    Zitat Zitat von http://pogs.theskynet.org/pogs/
    Minor planet named Bernard
    A minor planet in the Solar System will officially be known as Bernardbowen from today after Australian citizen science project theSkyNet won a competition to name the celestial body.

    The minor planet was named by the International Centre for Radio Astronomy Research (ICRAR) in honour of their founding chairman Dr Bernard Bowen.

    Bernardbowen sits in the asteroid belt between Mars and Jupiter and takes 3.26 Earth years to orbit the Sun.

    The minor planet was discovered on October 28, 1991, and until now has been known as (6196) 1991 UO4.

    Based at ICRAR, theSkyNet has been running since 2011 and sees citizen scientists donating their spare computing power to help Australian astronomers uncover the mysteries of the Universe.

    Its 50,000-odd volunteers entered an International Astronomical Union (IAU) contest to name planets beyond our Solar System.

    Project founders ICRAR also won the right to name a minor planet within our Solar System.
    Bernardbowen was one of 17 minor planets to be christened today.

    Other newly named minor planets include Kagura, after a traditional Shinto theatrical dance, and Mehdia, which is equivalent to the Arabic word for gift.

    Dr Bowen is renowned as one of the country’s finest science administrators and has presided over scientific advances ranging from the oceans to the skies. He was instrumental in the establishment of ICRAR in 2009, and helped bring part of the Square Kilometre Array telescope to Western Australia.

    A full list of the citation of the minor planets can be found at the IAU Minor Planet Circular.
    Bernardbowen can be found on the Minor Planet Centre site, including an interactive showing its position in the Solar System.
    17 Feb 2017, 6:44:38 UTC
    von Veröffentlicht: 13.02.2017 18:30
    1. Kategorien:
    2. Projekte

    Das Projekt ist nach einem Ausfall am Wochenende wieder zurück:

    Erklärung für die Auszeit
    Hallo zusammen, entschuldigt bitte die längere Auszeit, die wir in den letzten Tagen hatten. Wir hatten einen Festplattenausfall, dessen Behebung wegen des Wochenendes etwas länger dauerte als üblich. Wir sind nun wieder da und es gab keinen Datenverlust, vielleicht haben jedoch einige eurer Clients die Meldefristen verpasst (weil wir nicht erreichbar waren). Wenn ihr glaubt, deshalb signifikant viele Credits verloren zu haben, zögert nicht, mich zu kontaktieren. Wir arbeiten daran, dass ähnliche Fehler in Zukunft schneller behoben werden können. Nochmals Entschuldigung und frohes Crunchen!
    13.02.2017, 12:53:22 MEZ

    Originaltext:
    Zitat Zitat von http://www.cosmologyathome.org/
    Downtime Explanation
    Hi all, apologies for the extended downtime we had the past few days. We had a hard disk failure that, since it came over the weekend, took a bit longer to resolve than usual. We are back now and there was no data loss, however its possible some of your clients missed reporting deadlines (since we were unavailable). If you feel you lost significant credits because of this please don't hesitate to contact me. We're working on making sure similar errors in the future can be resolved quicker. For now, sorry again, and happy crunching!
    13 Feb 2017, 11:53:22 UTC
    von Veröffentlicht: 12.02.2017 13:45
    1. Kategorien:
    2. Projekte

    CPDN hat einen ausführlichen und sehr interessanten Jahresrückblick verfasst, der hier nur auszugsweise übersetzt sein soll. Der übrige Teil beschreibt die wissenschaftlichen Fortschritte in den jeweiligen Subprojekten oder beispielsweise das kurzfristige Untersuchen von Extremwetterereignissen in Europa und der Arktis. Besonders interessant für uns ist die allgemeine Projektentwicklung, die ich vollständig übersetzt habe.

    Zitat Zitat von Modelling and infrastructure
    How have we actually produced all this science in the past year? Through the efforts of you our volunteers and the moderating team for which we particularly thankful, projects within the program have submitted 582k workunits providing a total of 7557 CPU years of computational resource. We have had returned ~384k workunits during the year which is 20Million model years simulated! We have also been considering how we maximise the value of data that is generated during the project. To facilitate these we will be focusing on data curations, publishing and reuse ensuring that the data you, the volunteers have generated is available to all.
    Alongside the scientific advances that have been enabled by CPDN we have also made a significant number of advances within the underpinning technological system upon which CPDN and W@H depend. This has included transitions in the configurations of models that we run, in particular away from the individual regional Weather@Home1 applications. These were a significant maintenance load as we developed more and more regions we wanted to work with simultaneously. This has led to the development of the single region-independent Weather@Home2 application, within which we could dynamically pick the region of interest, resolution (25 or 50km) and even the time length of individual work units depending on scientific requirements. This allows us to simplify the number of individual applications that we are running as well as engage with more and more different research questions and hence collaborations. As you can see below we have dramatically expanded the regions on which we are able to study. We understand that there are still some issues and are thereby making the full roll out onto all platforms of all models a priority. At the beginning of the project we only deposited data within Oxford or Rutherford laboratory, expanding to both Oregon and Tasmania as further projects were funded. Within 2016 this has increased with the commissioning of further upload servers around the globe including Mexico, South Korea and India. We have strived to rationalise the upload servers moving towards a common deployment mechanism for them all. This will allow us to more rapidly deal with problems by redeploying servers on timescales relevant to allow continued uninterrupted operations in the case of infrastructure problems.

    We have also been investigating how we may support different types of project who require results with a more accurate definition of when they may be able to return results or with urgent computing requirements. This has included investigations of the use of the cloud, with significant grants from AWS to allow us to do proof of concept development on tiering resources attached to BOINC projects (16-17).
    Zitat Zitat von Modellierung und Infrastruktur
    Wie haben wir all diese Wissenschaft im vergangenen Jahr geschafft? Durch die Bemühungen unserer Freiwilligen und unseres Moderatorenteams, für die wir besonders dankbar sind, konnten 582k WUs veröffentlicht werden, die 7557 Jahren Rechenzeit entsprechen. Ungefähr 384k WUs wurden rückgemeldet, was 20 Millionen simulierten Modelljahren entspricht. Wir haben außerdem überlegt, wie wir den maximalen Nutzen aus den so gewonnenen Daten ziehen können. Um das zu erreichen fokussieren wir uns auf die Kuration, Veröffentlichung und Verwendbarkeit der Daten, die ihr, die Freiwilligen, generiert habt um sie für alle verfügbar zu machen. Neben den wissenschaftlichen Fortschritten die CPDN erreicht hat, haben wir außerdem signifikante Fortschritte in der Verbesserung des technischen Unterbaus gemacht, von dem CPDN und W@H abhängen. Das hat Veränderungen in den Modellkonfigurationen beinhaltet, die sich nun deutlich von den alten individuellen regionalen Weather@Home1-Anwendungen unterscheiden. Diese bedeuteten einen hohen Wartungsaufwand, vor allem mit der gestiegenen Anzahl an Modellregionen, die gleichzeitig bearbeitet werden sollten. Das hat zur Enwicklung einer einzigen, regionunabhängigen Weather@Home2-Anwendung geführt, in der die Region, die Auflösung (25 oder 50km) und sogar die Modelllaufzeit frei nach den wissenschaftlichen Erfordernissen gewählt werden kann. Das erlaubt uns die Zahl verschiedener Anwendungen zu verringern und gleichzeitig mehr und mehr verschiedenen wissenschaftlichen Fragestellungen nachzugehen. Wie ihr in der Abbildung erkennen könnt, haben wir die Anzahl der Regionen die wir untersuchen dramatisch erhöht. Wir wissen, dass es noch immer Unstimmigkeiten gibt und arbeiten daran, die neue Anwendung vollumfänglich auf allen Plattformen verfügbar zu machen.

    Zu Beginn des Projekts lagen die Daten ausschließlich auf Servern in Oxford und Rutherford, mit dem Vorranschreiten des Projekts kamen Oregon und Tasmanien hinzu. 2016 ist das Projekt weiter gewachsen mit neuen Servern überall auf der Welt, unter anderem in Mexiko, Südkorea und Indien. Wir haben die Uploadserver dahingehend optimiert, einen gemeinsamen Uploadmechanismus zu verwenden. Das wird uns erlauben schneller auf Probleme zu reagieren und einen projektweiten Serverausfall im Falle von Infrastrukturproblemen zu verhindern.

    Wir haben außerdem untersucht, wie wir verschiedenen Unterprojekte mit besonderen Anforderungen unterstützen können. Das hat auch Experimente mit Cloudlösungen beinhaltet, die durch AWS-Fördermittel ermöglicht wurden und uns erlauben ein funktionierendes Konzept zu entwickeln, das diese Fähigkeiten besitzt.
    von Veröffentlicht: 11.02.2017 07:45
    1. Kategorien:
    2. Projekte

    Es gab wieder einmal zwei Proth-Megaprimzahlfunde an einem Tag, beide mit Beteiligung von SETI.Germany-Mitgliedern. Nummer eins:

    Weitere PPS-Megaprimzahl!
    Am 9. Februar 2017 um 08:57:25 MEZ hat PrimeGrids Subprojekt PPS Mega Prime Search eine Megaprimzahl gefunden:
    619*2^3362814+1

    Diese Primzahl hat 1012311 Dezimalstellen und erreicht in Chris Caldwells Datenbank der größten bekannten Primzahlen Platz 203 insgesamt.

    Die Entdeckung gelang Daniel Frużyński (Daniel) aus Polen mit einem Intel Xeon E5-2670 @ 2,60 GHz mit 32 GB RAM unter Linux. Dieser Rechner brauchte etwa 1 Stunde 49 Minuten für den Primalitätstest mit LLR. Daniel ist Mitglied des Teams BOINC@Poland.

    Die Primzahl wurde am 9. Februar 2017 um 10:18:53 MEZ von Alen Kecic (Freezing) aus Deutschland mit einem Intel Core i7-7700K @ 4,20 GHz mit 16 GB RAM unter Windows 10 bestätigt. Dieser Rechner brauchte etwa 56 Minuten für den Primalitätstest mit LLR. Alen ist Mitglied des Teams SETI.Germany.

    Für weitere Einzelheiten siehe bitte die offizielle Bekanntgabe.
    10.02.2017 | 17:41:36 MEZ


    Nummer zwei:

    Ja, es gibt eine weitere PPS-Megaprimzahl!
    Am 9. Februar 2017 um 17:56:42 MEZ hat PrimeGrids Subprojekt PPS Mega Prime Search eine Megaprimzahl gefunden:
    533*2^3362857+1

    Die Primzahl hat 1012324 Dezimalstellen und erreicht in Chris Caldwells Datenbank der größten bekannten Primzahlen Platz 203 insgesamt.

    Die Entdeckung gelang Hans-Jürgen Bergelt (Hans-Jürgen Bergelt) aus Deutschland mit einem Intel Core i7-3930K @ 3,20 GHz mit 8 GB RAM unter Windows 7. Dieser Rechner brauchte etwa 1 Stunde 18 Minuten für den Primalitätstest mit LLR. Hans-Jürgen ist Mitglied des Teams SETI.Germany.

    Die Primzahl wurde am 10. Februar 2017 um 01:06:03 MEZ von Steve King (steveking) aus den Vereinigten Staaten mit einem Intel Core i5-4570 @ 3,20 GHz mit 20 GB RAM unter Windows 10 bestätigt. Dieser Rechner brauchte etwa 1 Stunde 20 Minuten für den Primalitätstest mit LLR.

    Für weitere Einzelheiten siehe bitte die offizielle Bekanntgabe.
    10.02.2017 | 23:17:40 MEZ


    Originaltexte:
    Zitat Zitat von http://www.primegrid.com/
    Another PPS Mega Prime!
    On 9 February 2017, 08:57:25 UTC, PrimeGrid’s PPS Mega Prime Search project found the Mega Prime:
    619*2^3362814+1

    The prime is 1,012,311 digits long and will enter Chris Caldwell's The Largest Known Primes Database ranked 203rd overall.

    The discovery was made by Daniel Frużyński (Daniel) of Poland using an Intel(R) Xeon(R) CPU E5-2670 @ 2.60GHz with 32GB RAM, running Linux. This computer took about 1 hour 49 minutes to complete the primality test using LLR. Daniel is a member of the BOINC@Poland team.

    The prime was verified on 9 February 2017, 09:18:53 UTC by Alen Kecic (Freezing) of Germany using an Intel(R) Core(TM) i7-7700K CPU @ 4.20GHz with 16GB RAM, running Microsoft Windows 10 Professional Edition. This computer took about 56 minutes to complete the primality test using LLR. Alen is a member of the SETI.Germany team.

    For more details, please see the official announcement.
    10 Feb 2017 | 16:41:36 UTC
    Zitat Zitat von http://www.primegrid.com/
    Yes, Its Another PPS-Mega Prime!
    On 9 February 2017, 17:56:42 UTC, PrimeGrid’s PPS Mega Prime Search project found the Mega Prime:
    533*2^3362857+1

    The prime is 1,012,324 digits long and will enter Chris Caldwell's The Largest Known Primes Database ranked 203rd overall.

    The discovery was made by Hans-Jürgen Bergelt (Hans-Jürgen Bergelt) of Germany using an Intel(R) Core(TM) i7-3930K CPU @ 3.20GHz with 8GB RAM, running Microsoft Windows 7 Ultimate Edition. This computer took about 1 hour 18 minutes to complete the primality test using LLR. Hans-Jürgen is a member of the SETI.Germany team.

    The prime was verified on 10 February 2017, 00:06:03 UTC by Steve King (steveking) of the United States using an Intel(R) Core(TM) i5-4570 CPU @ 3.20GHz with 20GB RAM, running Microsoft Windows 10 Professional Edition. This computer took about 1 hour 20 minutes to complete the primality test using LLR.

    For more details, please see the official announcement.
    10 Feb 2017 | 22:17:40 UTC
    von Veröffentlicht: 09.02.2017 00:20
    1. Kategorien:
    2. Projekte

    Der Algorithmus und erste Ergebnisse der neuen EXACT-Anwendung sollen im Juli auf der Konferenz GECCO in Berlin vorgestellt werden:

    Veröffentlichung zu EXACT für GECCO 2017 eingereicht
    Bitte entschuldigt die Funkstille in den letzten Tagen, ich habe schnell die Ergebnisse gesichtet und an einem Beitrag zur diesjährigen Genetic and Evolutionary Computation Conference (GECCO, Konferenz über genetische und evolutionäre Algorithmen) gearbeitet.

    GECCO verwendet eine Blindüberprüfung, daher sind Hinweise auf die Autoren (und das CSG, da die Autoren dadurch sehr offensichtlich wären) bis zur druckfertigen Version entfernt, falls die Veröffentlichung angenommen wird, aber falls ihr einen Blick auf den eingereichten Entwurf werfen möchtet, findet ihr ihn hier:

    Large Scale Evolution of Convolutional Neural Networks Using Volunteer Computing (engl., umfassende Entwicklung von Faltungs-Neuronennetzwerken mittels Berechnung durch Freiwillige)

    Darin werden der verwendete Algorithmus recht detailliert erklärt und einige der vorläufigen Ergebnisse diskutiert. Ihr fragt euch vielleicht, wie das Erkennen von Zahlen mit dem Erfassen von Wildtieren zusammenhängt - die Idee ist, diese Methode auf den Datensatz anzuwenden, bei dessen Erstellung ihr uns durch das Klassifizieren von Videos und Markieren der Bilder geholfen habt. Nochmals vielen Dank für das Crunchen und die Freiwilligenarbeit!
    Travis Desell am Mittwoch, den 8. Februar

    Originaltext:
    Zitat Zitat von http://csgrid.org/csg/
    Paper on EXACT submitted to GECCO 2017
    Sorry for radio silence the last few days, however I was furiously looking at results and working on a submission to this years Genetic and Evolutionary Computation Conference (GECCO).

    GECCO uses a blind review, so mentions of authorship (and the CSG because that would make it pretty obvious who the author was) are removed until the camera ready version if it's accepted, but if you'd like to take a look at the submitted draft here it is:

    Large Scale Evolution of Convolutional Neural Networks Using Volunteer Computing

    It explains the algorithm I'm using in a bit of detail, and discusses some of the preliminary results. You may ask, how does recognizing numbers related to detecting wildlife -- well the idea is to use this on the datasets you've been helping us generate by classifying video and marking up the images. Thanks again everyone for the crunching and volunteering!
    Travis Desell on Wednesday, February 8th
    von Veröffentlicht: 07.02.2017 20:35
    1. Kategorien:
    2. Projekte

    Über einen ersten Erfolg des Projektes wird nächste Woche bei einer Konferenz berichtet:

    Erste wissenschaftliche Ergebnisse von DENIS beim 61. Jahrestreffen der Biophysikalischen Gesellschaft
    Liebe Freiwillige,
    nächste Woche werde ich das 61. Jahrestreffen der Biophysikalischen Gesellschaft in New Orleans. Während der Konferenz werde ich eine Modifikation eines der Ströme (der Calciumstrom) in unserem Modell vorstellen. Dieser Strom wurde modifiziert, um einige Probleme mit dem Modell zu beheben. Wir haben uns dank der mit DENIS erhaltenen Ergebnisse zur Änderung dieses Stroms entschlossen, daher können wir sagen, dass dies das erste wissenschaftliche Ergebnis in der Herz-Elektrophysiologie ist, das durch eure Mitarbeit erhalten wurde. Vielen Dank!

    Ihr habt die explorative Untersuchung berechnet, um den Teil des Modells zu finden, der ein Problem verursachte. Dank eurer Mitarbeit konnten wir es finden und eine Lösung vorschlagen.

    Wir arbeiten weiter daran, unser Herzzellen-Modell so realistisch wie möglich zu machen, und hoffen, dass wir euch weiterhin großartige Neuigkeiten wie diese überbringen können, in welchen eure Leistung honoriert wird durch das Bereichern der Wissenschaft.

    Vielen Dank, dass ihr an unserer Seite steht und uns bei dieser und zukünftiger Arbeit helft.

    Mit freundlichen Grüßen,
    Jesús.
    07.02.2017, 13:40:26 MEZ

    Originaltext:
    Zitat Zitat von http://denis.usj.es/denisathome/forum_thread.php?id=129
    First Scientific Results of DENIS in the Biophysical Society 61st Annual Meeting
    Dear volunteers,
    Next week, I will attend the 61st Annual Meeting of the Biophysical Society in New Orleans. During the conference I will present a modification of one of the currents of our model (the calcium current). This current was modified to solve some problems of the model. We decided to modify this current thanks to the results obtained in DENIS, so we can say that this is the first scientific result in cardiac electrophysiology obtained thanks to your collaboration. Thank you very much!

    You computed the exploratory study to locate the part of the model that was causing the problem. Thanks to your collaboration we were able to find it and propose a solution.

    We continue to work to make our heart cell model as realistic as possible, we hope we can continue to give you great news like this in which your effort is rewarded enriching science.

    Thank you very much for being by our side and helping us in this and in future works.

    Sincerely,
    Jesús.
    7 Feb 2017, 12:40:26 UTC
    von Veröffentlicht: 02.02.2017 07:25
    1. Kategorien:
    2. Projekte

    Gleich der erste Fund im Rahmen der alljährlichen Tour de Primes war eine Megaprimzahl:

    GFN-131072-Megaprimzahl!
    Am 1. Februar 2017 um 03:24:46 MEZ hat PrimeGrids Generalized Fermat Prime Search eine verallgemeinerte Fermat-Megaprimzahl gefunden:

    44919410^131072+1

    Die Primzahl hat 1003020 Dezimalstellen und erreicht in Chris Caldwells Datenbank der größten bekannten Primzahlen Platz 19 für verallgemeinerte Fermat-Primzahlen und Platz 215 insgesamt.

    Die Entdeckung gelang Vince Splain (yank) aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 980 in Verbund mit einem Intel Core i7-5960X @ 3,00 GHz mit 16 GB RAM unter Windows 7. Diese GPU brauchte etwa 14 Minuten für den PRP-Test mit GeneferOCL4. Vince ist Mitglied des Teams US Navy.

    Die Primzahl wurde am 3. Februar 2017 um 22:17:17 MEZ von William Donovan (Williamd007) aus den Vereinigten Staaten mit einer NVIDIA GTX 960 in Verbund mit einem AMD FX-9590 mit 16 GB RAM unter Windows 10 bestätigt. Diese GPU brauchte etwa 22 Minuten für den PRP-Test mit GeneferOCL4. William ist Mitglied des Teams The Knights Who Say Ni!.

    Die Primalität dieser PRP wurde mit einem Intel Core i7-7700K @ 4,20 GHz mit 16 GB RAM unter Windows 10 bewiesen. Dieser Rechner brauchte etwa 5 Stunden 17 Minuten für den Primalitätstest mit LLR.

    Für weitere Informationen siehe bitte die offizielle Bekanntgabe.
    01.02.2017 | 18:38:11 MEZ

    Originaltext:
    Zitat Zitat von http://www.primegrid.com/
    GFN-131072 Mega Prime!
    On 1 February 2017, 02:24:46 UTC, PrimeGrid’s Generalized Fermat Prime Search found the Generalized Fermat mega prime:

    44919410^131072+1

    The prime is 1,003,020 digits long and enters Chris Caldwell's The Largest Known Primes Database ranked 19th for Generalized Fermat primes and 215th overall.

    The discovery was made by Vince Splain (yank) of The United States using an NVIDIA GeForce GTX 980 in an Intel(R) Core(TM) i7-5960X CPU at 3.00GHz with 16GB RAM, running Microsoft Windows 7 Professional. This GPU took about 14 minutes to probable prime (PRP) test with GeneferOCL4. Vince is a member of the US Navy team.

    The prime was verified on 3 February 2017, 21:17:17 UTC by William Donovan (Williamd007) of the United States using an NVIDIA GTX 960 on an AMD FX(tm)-9590 CPU with 16GB RAM, running Microsoft Windows 10 Core Edition. This GPU took about 22 minutes to PRP test with GeneferOCL4. William is a member of The Knights Who Say Ni! team.

    The PRP was confirmed prime by an Intel(R) Core(TM) i7-7700K CPU @ 4.20GHz with 16GB RAM, running Microsoft Windows 10 Professional. This computer took about 5 hours 17 minutes to complete the primality test using LLR.

    For more information, please see the official announcement.
    1 Feb 2017 | 17:38:11 UTC
    von Veröffentlicht: 26.01.2017 21:35
    1. Kategorien:
    2. Projekte

    Hintergrund:
    Jedes Jahr werden ungefähr 300.000 Kinder mit Krebs diagnostiziert und ungefähr 80.000 sterben an Krebs. Im Jahr 2009 trat World Community Grid den Kampf an, um diese trübe Statistik zu verbessern, indem es das Projekt "Help Fight Childhood Cancer" unterstützte. Diese Forschung hat dazu beigetragen, dass Wissenschaftler mehrere potenzielle Behandlungsmethoden für Neuroblastom, einer der häufigsten Krebsarten, die Säuglinge und Kleinkinder beeinflussen, entdeckten. Jetzt haben die gleichen Wissenschaftler ihr Team und die Forschung mit dem "Smash Childhood Cancer"-Projekt auf der Suche nach Wirkstoffkandidaten für andere Arten von Kinderkrebs erweitert.

    Das Problem:
    In den vergangenen 20 Jahren wurden nur wenige Medikamente zur Behandlung von Krebs im Kindesalter von der US-amerikanischen Food and Drug Administration genehmigt. Die Hälfte aller Chemotherapie-Behandlungen die für Kinder mit Krebs verwendet wurden, gibt es seit 25 Jahren oder länger.

    Mitglieder des Smash-Childhood-Cancer-Teams haben Proteine und andere Moleküle identifiziert, die bei bestimmten Krebserkrankungen die Hauptrolle spielen. Die Herausforderung besteht nun darin, chemische Wirkstoffkandidaten zu finden, die speziell auf diese Schlüsselmoleküle zielen und somit die Krebszellen kontrollieren. Allerdings ist die Suche nach solchen Medikamentenkandidaten unter Millionen von Möglichkeiten ein teurer und anspruchsvoller Prozess.

    Die vorgeschlagene Lösung:
    Eine Suche dieser Größenordnung ist nur mit Hilfe der Freiwilligen des World Community Grid möglich. Die Wirksamkeit dieser chemischen Verbindungen kann in Millionen von virtuellen chemischen Experimenten getestet werden, die somit auf den freiwillig zur Verfügung gestellten Computern oder Android-Geräten durchgeführt werden.

    Diese Berechnungen werden die besten Moleküle identifizieren, die wahrscheinlich jedes der Zielmoleküle, die in Krebszellen gefunden werden, kontrollieren. Laboruntersuchungen werden dann die besten Verbindungen aus den festgestellten Kandidaten für weitere Forschung und Entwicklung von Arzneimitteln identifizieren.

    Neben dem Neuroblastom sind die Wissenschaftler zunächst an der Entwicklung von Behandlungen für Wilms-Tumore (maligne Erkrankungen in den Nieren), Hepatoblastom (Leberkrebs), Keimzelltumoren und Osteosarkom (Knochenkrebs) interessiert.

    Als nächstes gehen Medikamentenkandidaten, die durch das World Community Grid-Projekte identifiziert werden, üblicherweise durch einen umfangreichen Entwicklungsprozess, um in Behandlungsmethoden umgewandelt zu werden. Zum Beispiel müssen Forscher die Moleküle in der Art modifizieren, damit sie die Toxizität besser beseitigen können und um diese leichter verwalten zu können. Wir hoffen, dass dieses Projekt auch andere Forschungsteams und Wissenschaftler viel schneller zu diesem Entwicklungsstadium weiterschreiten lässt und das Endziel der Heilung von Kinderkrebs erreicht werden kann.

    Wie alle anderen World-Community-Grid-Forschungspartner ist das Smash-Childhood-Cancer-Forschungsteam verpflichtet, ihre Daten so schnell wie möglich an die Öffentlichkeit weiterzugeben, so dass andere Wissenschaftler die Entwicklung einiger der identifizierten und viel versprechenden Verbindungen in neue Medikamente vorantreiben können.

    Badges:

    (mehr als 5 Anhänge sind nicht erlaubt)

    Link zum Projekt beim WCG: https://www.worldcommunitygrid.org/r...c1/overview.do (auf englisch)
    von Veröffentlicht: 23.01.2017 22:05
    1. Kategorien:
    2. Projekte

    Universe@home hat eine Grafik veröffentlicht, welche die typische Entstehungsgeschichte einer ultraleuchtkräftigen Röntgenquelle in einem Doppelsternsystem mit einem Schwarzen Loch darstellt:

    Entwicklung einer ultraleuchtkräftigen Röntgenquelle aus einem Schwarzen Loch

    Die Untersuchung der Natur von ultraleuchtkräftigen Röntgenquellen (ULX) dauert noch an und wir warten derzeit auf Rückmeldung unserer Mitarbeiter. Ich möchte derweil eine Abbildung der Entwicklung einer typischen ULX mit einem Schwarzen Loch als Akkretor mit euch teilen.

    Um es kurz zu machen: Zwei massereiche Sterne umkreisen sich in einem Doppelsternsystem. Der schwerere dehnt sich als Folge der Entwicklung seines Kerns aus und beginnt, Masse an seinen Begleiter zu verlieren. Dieser Massentransfer ist dynamisch instabil und der zweite Stern wird von der Materie des ersten Sterns umgeben. Wir nennen diese Phase eine gemeinsame Hülle (engl. common envelope, CE) und sie ereignet sich typischerweise, wenn das System etwa zwischen 4 und 5 Millionen Jahre alt ist.

    Wenn der Begleiter eine hinreichende Orbitalenergie hat, wird die gemeinsame Hülle abgestoßen und der Abstand der Sterne schrumpft deutlich. Die Hauptkomponente braucht nun weniger als 100000 Jahre, bis sie zu einem Schwarzen Loch kollabiert.

    Die Orbitalenergie des Systems wird kontinuierlich in Form von Gravitationswellen abgestrahlt, wodurch der Abstand weiter schrumpft. Gleichzeitig dehnt sich der Begleitstern aus. Wenn nun der Massentransfer auf das Schwarze Loch innerhalb der ersten 500 Millionen Jahre beginnt (typischerweise innerhalb der ersten 10-20 Millionen Jahre), ist der Fluss stark genug, um eine ULX anzutreiben.

    [...]
    23.01.2017, 16:02:12 MEZ

    Originaltext:
    Zitat Zitat von http://universeathome.pl/universe/
    Evolution of a black hole ULX
    [...]
    The investigation of ULX's nature is still in progress and currently we are waiting for feedback from our collaborators. Meanwhile, I want to share with you a figure of the evolution of a typical ULX with black hole accretor.

    To make the long story short, two massive stars bore in a binary. One which is heavier expands as a result of its nuclear evolution and starts to shed mass onto its companion.This mass transfer is dynamically unstable and the second star becomes engulfed with the primary star's matter. We call this phase a common envelope and it happens typically when the system's age is between 4 and 5 million years.

    If the companion has enough orbital energy, the common envelope is rejected and the stars' separation shrinks significantly. The primary needs now less than 100,000 years to collapse and form a black hole.

    The system's orbital energy is constantly emitted in gravitational waves, which results in further separation shrinkage. Simultaneously, the secondary star expands. If it manages to commence the mass transfer onto the black hole within the first 500 million years (typically during the first 10-20 million years), the flow will be strong enough to power a ULX.

    [...]
    23 Jan 2017, 15:02:12 UTC
    von Veröffentlicht: 23.01.2017 17:15
    1. Kategorien:
    2. Projekte

    Fast alle BOINC-Projekte mit Bezug zum LHC wurden im Laufe des letzten Jahres schon in Subprojekte von LHC@home umgewandelt, jetzt beginnt auch der Umzug von ATLAS@Home auf die gemeinsame Plattform:

    Zusammenlegung von ATLAS und LHC@home
    Hallo zusammen,

    wie ihr vielleicht wisst, arbeiten wir daran, alle mit dem LHC beschäftigten Projekte unter einem gemeinsamen Projekt LHC@home zusammenzufassen. Die Idee ist, einen einzigen Einstiegspunkt anzubieten für jeden, der bei der Forschung am CERN mithelfen möchte.

    Wir haben nun eine Beta-Anwendung für ATLAS bei LHC@home aufgesetzt, daher laden wir euch ein, diese auszuprobieren und Rückmeldungen im ATLAS-Forum zu posten. Ihr müsst Beta-Anwendungen in euren Projekteinstellungen aktivieren, um diese WUs zu bekommen.

    Derzeit dienen die WUs dort nur als Test und wir verwenden die Ergebnisse nicht, aber bald wird es mit echten WUs weitergehen. Sobald alles dort gut funktioniert, werden wir alle bitten, auf LHC@home umzustellen und werden über das Projekt ATLAS@Home keine Arbeit mehr verschicken.

    Punkte gehen nicht verloren! Wir werden alle Punkte, die hier angesammelt wurden, zu LHC@home übertragen, sobald alle verbliebenen Aufgaben beendet sind. Um dies einfacher zu machen, wäre es hilfreich, wenn ihr bei beiden Projekten die gleiche E-Mail-Adresse eingetragen hat, da dies der einzige Weg ist, die Benutzerkonten bei den Projekten zuzuordnen.

    Frohes Crunchen weiterhin,
    das ATLAS@Home-Team
    23.01.2017, 12:55:08 MEZ

    Originaltext:
    Zitat Zitat von http://atlasathome.cern.ch/
    ATLAS/LHC@Home consolidation
    Hi all,

    As you may know we are working on putting all LHC-related projects under the combined LHC@Home project. The idea is to provide a single entry point for everyone who wants to participate in helping CERN research.

    We have now set up a beta app for ATLAS on LHC@Home so we invite you to try it and provide feedback on the ATLAS message board. You need to enable beta apps in your project preferences to get these WU.

    Currently the WU there are just for tests and we don't use the results but soon we will proceed with real WU. Once everything is working well there we will ask everyone to migrate over to LHC@Home and stop sending work to the ATLAS@Home project.

    Credit will not be lost! We will move all the credit accumulated here to LHC@Home once all the remaining tasks are finished. To make this easier it would be very helpful if your email address you register with is the same on both projects, since this is the only way to match the accounts on each project.

    Happy continued crunching,
    The ATLAS@Home team
    23 Jan 2017, 11:55:08 UTC

    Seite 1 von 46 1 2 3 11 ... LetzteLetzte
Single Sign On provided by vBSSO