Informacja

NCBI-geo różnice między platformami, serią i próbkami

NCBI-geo różnice między platformami, serią i próbkami


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Po raz pierwszy używam NCBI-GEO i mam do czynienia z 3 różnymi kategoriami w środku. Oni sąPlatforma,próbkaorazseria.

NCBI-GEO posiada sekcję GEO-Przegląd, aby wyjaśnić te terminy tym, którzy są nowi na tej stronie; chociaż przeczytałem go kilka razy, nie mogłem go całkowicie zrozumieć.GEO-Strona przeglądowa Terminy są nieco skomplikowane dla tych, którzy nie są zaznajomieni z pojęciami. Czy jest zatem ktoś, kto mógłby je wyjaśnić prostszymi słowami?

W mojej sytuacji używam NCBI-GEO, aby uzyskać dane sekwencji RNA dlaC. Elegansorganizm. Pobrałem następujący plik SRA : Próbka NCBI-geo C. Elegans

O ile zrozumiałem, próbka zawiera informacje o pojedynczym organizmie (w moim przypadku jest to pojedynczy organizm C.elegans)

Myślę, że serie są zbiorem wielu próbek. Zastanawiam się, jakie są kryteria umieszczania różnych próbek w tej samej serii?

I wreszcie, jakie są różnice między platformami a seriami? Myślałem, że każdy organizm ma jedną platformę, innymi słowy, pomyślałem, że mogę znaleźć wszystkie rzeczy dotyczące, powiedzmy, C.elegans w jego platformie, ale widziałem, że jeden typ organizmu może mieć wiele różnych platform.

Tak więc staram się nauczyć tych pojęć i myślę, że ta strona jest właściwym miejscem, aby o to zapytać. Jeśli moje pytanie jest nie na temat, przepraszam, że nie byłem tego świadomy.


Platforma w NCBI-GEO oznacza konkretną mikromacierz, która została użyta (ponieważ pierwotnie większość GEO była tylko mikromacierzami), LUB, ostatnio, może oznaczać typ używanej maszyny NGS. Na przykład, każdy producent mikromacierzy tworzy ADF (plik danych tablicy), który mapuje sekwencję DNA w każdej pozycji na chipie na identyfikator dostępu. A ten plik mapowania ADF zostaje zarejestrowany w GEO jako GPLxxxxxx. Miało to prawdopodobnie ułatwić bezpośrednie porównania między różnymi eksperymentami z różnych laboratoriów przy użyciu identycznych chipów (np. Affymetrix lub Nimblegen).

Wraz z pojawieniem się NGS platforma musi być nazwą z zatwierdzonej listy firm i urządzeń: ILLUMINA, HiSeq, itp.

Serie są tworzone przez dostawców danych i umożliwiają im grupowanie wyników z powiązanych próbek. Na przykład w konsorcjum modENCODE uważam, że wszyscy C. elegans RNA-Seq z laboratorium/projektu Boba Waterstona są zgrupowane razem pod jednym nadrzędnym GSExxxxxxx. Więcej szczegółów na www.modencode.org i linki tam.


Cistrome: integracyjna platforma do badań regulacji transkrypcji

Rosnąca ilość generowanych danych ChIP-chip i ChIP-seq stanowi wyzwanie dla standardowych, integracyjnych i odtwarzalnych platform analizy danych bioinformatycznych. Opracowaliśmy aplikację internetową o nazwie Cistrome, opartą na frameworku Galaxy Open Source. Oprócz standardowych funkcji Galaxy, Cistrome posiada 29 narzędzi specyficznych dla ChIP-chip- i ChIP-seq w trzech głównych kategoriach, od wstępnego wywołania pików i analiz korelacji po asocjację cech genomu, analizy ekspresji genów i odkrywanie motywów. Cistrome jest dostępny pod adresem http://cistrome.org/ap/.


Tło

Ostatnie postępy w technologiach molekularnych, inżynieryjnych i sekwencjonowaniu umożliwiły wysokoprzepustowy pomiar transkryptomów i innych cech genomicznych w tysiącach pojedynczych komórek w jednym eksperymencie [1,2,3,4]. Sekwencjonowanie pojedynczych komórek RNA (scRNA-seq) znacznie zwiększa naszą zdolność do rozwiązywania niejednorodności typów komórek i stanów komórek w próbkach biologicznych, a także do zrozumienia, w jaki sposób systemy zmieniają się podczas dynamicznych procesów, takich jak rozwój. Jednak obecne technologie scRNA-seq zapewniają tylko migawki molekularne ograniczonej liczby mierzonych próbek na raz. Często wymagana jest wspólna analiza wielu próbek w wielu eksperymentach i warunkach. W takim scenariuszu zmienność biologiczna będąca przedmiotem zainteresowania jest zwykle utrudniona przez inne czynniki, w tym źródła próbek i partie doświadczalne. Jest to szczególnie trudne dla rozwijających się systemów, w których stany komórkowe współistnieją w różnych punktach wzdłuż różnych trajektorii różnicowania, takich jak dojrzałe typy komórek oraz stany pośrednie. Kilka metod integracji obliczeniowej, w tym m.in. MNN [5], Seurat [6, 7], Harmony [8], LIGER [9], Scanorama [10], i Referencyjne Spektrum Podobieństwa (RSS) [11, 12], zostały opracowane w celu rozwiązania niektórych z tych problemów. Wśród nich MNN identyfikuje wzajemnych najbliższych sąsiadów między dwoma zestawami danych i wyprowadza specyficzne dla komórki wektory korekcji wsadowej do integracji. Seurat koryguje efekty wsadowe, wprowadzając strategię zakotwiczenia, z zakotwiczeniami między próbkami zdefiniowanymi za pomocą kanonicznej analizy korelacji. Harmony używa iteracyjnej procedury korekcji grupowania opartej na miękkim grupowaniu w celu skorygowania różnic w próbkach. LIGER dostosowuje integracyjną nieujemną faktoryzację macierzy w celu identyfikacji wspólnych i specyficznych dla zbioru danych czynników do wspólnej analizy. Scanorama uogólnia wzajemne dopasowanie najbliższych sąsiadów w dwóch zestawach danych, aby zidentyfikować podobne elementy w wielu zestawach danych w celu wsparcia integracji więcej niż dwóch zestawów danych. RSS osiąga integrację, reprezentując każdą komórkę przez podobieństwo jej transkryptomu do serii próbek referencyjnych. Analiza porównawcza tych metod integracji ujawniła zróżnicowaną wydajność każdej metody w oparciu o dany scenariusz, podkreślając, że nie ma jednej magicznej kuli, która byłaby w stanie zawsze wyodrębnić znaczącą zmienność zainteresowania [13].

Tutaj proponujemy nienadzorowaną reprezentację danych scRNA-seq, a mianowicie widmo podobieństwa klastrów lub CSS, które umożliwiają integrację danych genomowych pojedynczej komórki. Zamiast używać odwołań zewnętrznych, jak w RSS, CSS traktuje każdy klaster komórek w każdej próbce jako wewnętrzne odniesienie do integracji i reprezentuje każdą komórkę przez podobieństwo jej transkryptomu do klastrów w próbkach. Hipoteza leżąca u podstaw zarówno RSS, jak i CSS polega na tym, że niepożądane czynniki zakłócające, np. zasięg odczytu różnych komórek, wprowadzają losowe zaburzenia do obserwowanych miar transkryptomicznych, które nie są skorelowane z typem komórki lub tożsamością stanu komórki. Gdy podobieństwa do różnych odniesień zostaną znormalizowane, globalne różnice między komórkami wprowadzone przez losowe zaburzenia zostają zneutralizowane. Następnie komórki o tej samej tożsamości mają zasadniczo podobne wzorce znormalizowanych podobieństw. Ten wzorzec nazywamy widmem podobieństwa. Dodatkowo, ponieważ CSS traktuje wszystkie klastry w różnych próbach jako odniesienia, normalizacja jest wykonywana oddzielnie w klastrach różnych próbek, dzięki czemu globalne różnice między próbami można w dużej mierze wyeliminować. Stosujemy CSS do różnych scenariuszy, koncentrując się na danych generowanych z organoidów mózgowych pochodzących z indukowanych przez człowieka pluripotencjalnych komórek macierzystych (iPSC). Ponadto stosujemy CSS również do zbiorów danych scRNA-seq innych systemów, w tym komórek jednojądrzastych krwi obwodowej (PBMC) i rozwijającej się siatkówki ludzkiej. Używamy CSS do integracji danych z różnych linii iPSC, osób, partii, modalności i warunków. Pokazujemy, że zmienność techniczną spowodowaną warunkami lub protokołami eksperymentalnymi można w dużej mierze zmniejszyć dzięki reprezentacji CSS, a CSS ma podobną lub nawet lepszą wydajność w porównaniu z innymi metodami integracji, w tym Scanorama, MNN, Harmony, Seurat v3 i LIGER, które zostały wyróżnione we wcześniejszych próbach benchmarkingowych [13, 14]. Pokazujemy, że CSS umożliwia również projekcję nowych danych, scRNA-seq lub scATAC-seq, do atlasu referencyjnego scRNA-seq reprezentowanego przez CSS w celu wizualizacji i przewidywania tożsamości typu komórki. Kody CSS są dostępne pod adresem https://github.com/quadbiolab/simspec [15].


Porównanie wydajności platform sekwencjonowania BGISEQ-500 i Illumina HiSeq2500 do sekwencjonowania paleogenomicznego

Badania nad starożytnym DNA zostały zrewolucjonizowane dzięki opracowaniu platform sekwencjonowania nowej generacji. Chociaż wiele takich platform zostało zastosowanych do starożytnych próbek DNA, seria Illumina jest obecnie dominującym wyborem, głównie ze względu na wysokie zdolności produkcyjne i produkcję z krótkim odczytem. Niedawno opracowano potencjalnie atrakcyjną alternatywną platformę do generowania danych paleogenomicznych, BGISEQ-500, której wyniki sekwencji są porównywalne z serią Illumina. W tym badaniu zmodyfikowaliśmy standardowy preparat biblioteki BGISEQ-500 specjalnie do użycia na zdegradowanym DNA, a następnie bezpośrednio porównaliśmy wydajność sekwencjonowania i jakość danych BGISEQ-500 z platformą Illumina HiSeq2500 na DNA wyekstrahowanym z 8 historycznych i starożytnych psów i wilków próbki. Wygenerowane dane były w dużej mierze porównywalne między platformami do sekwencjonowania, bez statystycznie istotnych różnic zaobserwowanych dla parametrów obejmujących poziom (P = 0,371) i średnią długość sekwencji (P = 0718) endogennego DNA jądrowego, zawartość sekwencji GC (P = 0,311), podwójne wskaźnik uszkodzenia nici DNA (v. 0,309) i klonalność sekwencji (P = 0,093). Niewielkie istotne różnice stwierdzono w szybkości uszkodzenia jednoniciowego DNA (δS nieco niższy dla BGISEQ-500, P = 0,011) i współczynniku różnic w tle w stosunku do genomu referencyjnego (θ nieco wyższy dla BGISEQ-500, P = 0,012). Może to wynikać z różnic w cyklach amplifikacji stosowanych do reakcji łańcuchowej polimerazy – amplifikacji bibliotek. Zaobserwowano również istotną różnicę w odsetku odzyskanego mitochondrialnego DNA (P = 0,018), chociaż uważamy, że jest to prawdopodobnie efekt stochastyczny związany z wyjątkowo niskimi poziomami mitochondriów, które zostały zsekwencjonowane z 3 próbek z ogólnie bardzo niskimi poziomami endogennych DNA. Chociaż przyznajemy, że nasze analizy ograniczały się do materiału zwierzęcego, nasze obserwacje sugerują, że BGISEQ-500 ma potencjał do reprezentowania ważnej i potencjalnie wartościowej alternatywnej platformy do generowania danych paleogenomicznych, która jest warta przyszłej eksploracji przez osoby zainteresowane sekwencjonowaniem i analizą zdegradowanego DNA.

Słowa kluczowe: BGISEQ-500 Illumina HiSeq 2500 porównawcza wydajność starożytnego DNA.

© Autor 2017. Opublikowane przez Oxford University Press.

Figury

Złożoność biblioteki szacowana jako…

Złożoność biblioteki szacowana jako liczba unikalnych odczytów w funkcji…

Mapa cieplna liczebności k-merów w…

Mapa cieplna zliczeń k-merów w bibliotekach. Biblioteki (kolumny) zostały hierarchicznie pogrupowane na podstawie…

U góry: mediana znormalizowanej liczby fragmentów…

U góry: mediana znormalizowanej liczby fragmentów (NFC) na okna o wielkości 100 kb, z 10 kb…


TREŚCI GEOGRAFICZNE

W chwili pisania tego tekstu baza danych GEO zawierała >32 000 publicznych serii (zapisów badań) przesłanych bezpośrednio przez 13 000 laboratoriów, obejmujących 800 000 próbek pochodzących z >1600 organizmów. Jak pokazano na Rysunku 1, ogólny wskaźnik zgłoszeń nadal rośnie tylko w 2011 r., przetworzono >6800 nowych serii, co stanowi 22% wzrost w porównaniu z poprzednim rokiem. Typy danych zarchiwizowane w GEO odzwierciedlają ewoluujące trendy w technologii i metodologiach stosowanych przez społeczność genomiki funkcjonalnej. „Profilowanie ekspresji według tablicy” nadal jest najczęstszym typem badania przesyłanym do GEO o rząd wielkości, chociaż tempo jego wzrostu spada. Wskaźniki składania sekwencji nowej generacji gwałtownie wzrastały od 2008 r., Co ciekawe, metody takie jak immunoprecypitacja chromatyny przez sekwencjonowanie (ChIP-seq włączone do „profilowania wiązania/zajętości genomu przez NGS” na Ryc. 1) rosną w takim tempie, że są teraz składane przy wyższej częstotliwości niż ich odpowiednik oparty na macierzach ChIP-chip. Tymczasem tradycyjne zgłoszenia SAGE (Serial Analysis of Gene Expression) są obecnie rzadkie.

Rozkład liczby i rodzajów wybranych opracowań wydawanych przez GEO każdego roku od momentu powstania. Użytkownicy mogą przeglądać i pobierać historyczne numery zgłoszeń, korzystając ze strony „historia” pod adresem http://www.ncbi.nlm.nih.gov/geo/summary/?type=history, a także tworzyć zapytania do bazy danych GEO DataSet dla określonych typów danych oraz zakresy dat przy użyciu pól „Typ zestawu danych” i „Data publikacji” zgodnie z opisem na stronie http://www.ncbi.nlm.nih.gov/geo/info/qqtutorial.html.

Rozkład liczby i rodzajów wybranych opracowań wydawanych przez GEO każdego roku od momentu powstania. Użytkownicy mogą przeglądać i pobierać historyczne numery zgłoszeń, korzystając ze strony „historia” pod adresem http://www.ncbi.nlm.nih.gov/geo/summary/?type=history, a także tworzyć zapytania do bazy danych GEO DataSet dla określonych typów danych oraz zakresy dat przy użyciu pól „Typ zestawu danych” i „data publikacji” zgodnie z opisem na stronie http://www.ncbi.nlm.nih.gov/geo/info/qqtutorial.html.

Prawie wszystkie zgłoszenia są deponowane przez poszczególne laboratoria lub mikromacierze w imieniu swoich klientów. Niektóre dane są importowane z ArrayExpress, trwają prace nad rozszerzeniem tego importu. Dane dla dużych projektów współpracy, w tym Encyklopedia Elementów DNA (ENCODE) (5) i Mapy Drogowej Epigenomiki (6), są zdeponowane przez Centra Koordynacji Danych i mają dedykowane strony z wykazami danych pod adresem http://www.ncbi.nlm.nih.gov /geo/info/ENCODE.html i http://www.ncbi.nlm.nih.gov/geo/roadmap/epigenomics/.

Obsługa danych sekwencyjnych nowej generacji

GEO postawił sobie za priorytet dalsze wspieranie społeczności mikromacierzy podczas przechodzenia na technologie sekwencyjne nowej generacji. Ustalone formaty przesyłania mikromacierzy, standardy metadanych i procedury administracyjne zostały zmodyfikowane w celu dostosowania do nowych technologii. Pełne wytyczne dotyczące składania sekwencji znajdują się na stronie http://www.ncbi.nlm.nih.gov/geo/info/seq.html i obsługują „minimalne informacje o eksperymencie sekwencjonowania o wysokiej przepustowości” (MINSEQE) (http:// /www.fged.org/projects/minseqe/). GEO akceptuje dane sekwencyjne do badań, które badają ekspresję genów (RNA-Seq), regulację genów i epigenomikę (np. ChIP-Seq, metylo-Seq, nadwrażliwość na DNazę) lub inne badania, w których część badania stanowi pomiar ilości lub charakterystyki sekwencji cele. GEO przechowuje przetworzone pliki danych wraz z plikami surowych danych z próbkami i badaniami zawierającymi oryginalne odczyty sekwencji, które są pośredniczone i połączone z bazą danych Sequence Read Archive (SRA) NCBI (7). Do tej pory firma GEO załadowała do SRA >44 terabazy odczytanych danych. Co więcej, kilka tysięcy przetworzonych plików danych zostało włączonych do bazy danych NCBI Epigenomics (8), gdzie są one dalej nadzorowane i dostępne do przeglądania, ponieważ ścieżki w przeglądarkach genomu pracują nad włączeniem kilku tysięcy kolejnych ścieżek z wzajemnymi linkami do GEO.


Abstrakcyjny

Gene Expression Omnibus (GEO) w National Center for Biotechnology Information (NCBI) jest największym publicznym repozytorium danych dotyczących ekspresji genów o wysokiej przepustowości. Ponadto GEO zawiera inne kategorie wysokoprzepustowych funkcjonalnych danych genomicznych, w tym te, które badają zmienność liczby kopii genomu, strukturę chromatyny, stan metylacji i wiązanie czynników transkrypcyjnych. Dane te są generowane przez społeczność naukową przy użyciu wysokowydajnych technologii, takich jak mikromacierze, a ostatnio sekwencjonowanie nowej generacji. Baza danych posiada elastyczną infrastrukturę, która może przechwytywać w pełni opatrzone adnotacjami surowe i przetworzone dane, umożliwiając zgodność z głównymi standardami raportowania naukowego opracowanymi przez społeczność, takimi jak „Minimalne informacje o eksperymencie mikromacierzy” (MIAME). Oprócz pełnienia funkcji scentralizowanego centrum przechowywania danych, GEO oferuje wiele narzędzi i funkcji, które umożliwiają użytkownikom efektywne eksplorowanie, analizowanie i pobieranie danych dotyczących ekspresji zarówno z perspektywy genów, jak i eksperymentów. Ten artykuł podsumowuje strukturę repozytorium GEO, zawartość i procedury operacyjne, a także ostatnio wprowadzone funkcje eksploracji danych. GEO jest swobodnie dostępne pod adresem http://www.ncbi.nlm.nih.gov/geo/.


2 UŻYWANIE GEOQUERY

Podstawowym celem GEOquery jest pobieranie i parsowanie plików w formacie SOFT z GEO, z zachowaniem wszystkich informacji zawartych w rekordach GEO. Konstrukcja GEOquery sprawia, że ​​dostęp do danych z GEO jest bardzo prosty. Potrzebne jest tylko jedno polecenie, getGEO . Jako przykład użyto GEOquery, aby zademonstrować, w jaki sposób można uzyskać dane związane z GDS1, zbiór danych GEO.

To polecenie ładuje bibliotekę GEOquery do R.

Teraz zmienna R gds zawiera strukturę danych GEOquery (klasy GDS), który reprezentuje wpis GDS1 z GEO. Zwróć uwagę, że nazwa pliku używana do przechowywania pobranych plików była wyświetlana na ekranie w celu późniejszego wykorzystania w wywołaniu getGEO(nazwapliku = …). To samo polecenie uzyska każde inne przystąpienie do GEO, takie jak GSM3, próbkę GEO.

2.1 Struktury danych GEOquery

Dwie z najpotężniejszych funkcji GEOquery to niestandardowe struktury danych i powiązane metody, które organizują dane z pobierania GEO. Struktury danych GEOquery można opisać w dwóch szerokich grupach, które są analogiczne do struktury używanej przez GEO do dostarczania danych. Pierwsza grupa, składająca się z GDS, GPL oraz GSM, wszystkie mają podobną strukturę formatu GEO SOFT, a powiązane metody GEOquery mają podobny wpływ na każdą z nich. Każda z tych klas składa się z nagłówka metadanych, wziętego niemal dosłownie z nagłówka formatu SOFT i zawierającego informacje dotyczące całego obiektu GEO oraz GEODataTable. Tabela GEODataTable składa się z dwóch prostych części, części Kolumny, która opisuje nagłówki kolumn oraz części tabeli, która zazwyczaj zawiera tabelę informacji 2D. Oto obcięte dane wyjściowe niektórych akcesorów zastosowanych do próbki GEO, która była przechowywana w poprzedniej sekcji.

Signal_Raw Norm_Value Const

6 Wartość normalizacji NORM_VALUE

ten GPL zachowuje się dokładnie tak, jak GSM klasy, chociaż klasa GSM zawiera dane dotyczące ekspresji genów w swojej GEODataTable, podczas gdy klasa GPL zawiera informacje o cechach mikromacierzy. Jednak klasa GDS ma nieco więcej informacji związanych z metodą Columns, ponieważ zawiera adnotację powiązaną z każdą tablicą:

3 samiec po gonadektomii GSM5;

ten GSE jest klasą złożoną. Wpis GSE z GEO może reprezentować dowolną liczbę próbek zhybrydyzowanych na dowolnej liczbie platform. ten GSE ma sekcję metadanych, podobnie jak inne klasy. Jednak nie ma GEODataTable. Zamiast tego zawiera dwie listy, dostępne za pomocą GPLList i GSMList , które są listami GPL oraz GSM obiekty, odpowiednio. Wykorzystanie akcesorów klas w połączeniu z potężnymi możliwościami manipulacji danymi w języku R umożliwia szybki i łatwy dostęp do danych GSE oraz ich przekształcenie w dowolną formę odpowiednią do dalszej analizy.

2.2 Konwersja do struktur danych BioConductor

Zbiory danych GEO są dość podobne do Limma pakiet (Smyth, 2005) struktura danych MAList i do Biobaza pakiet (dżentelmen i in., 2004) struktura danych Zestaw wyrażeń. Dlatego istnieją dwie funkcje, GDS2MA i GDS2eSet, które konwertują z GDS do jednej z dwóch struktur danych.

Jako prosty przykład, konwertowanie obiektu gds z góry na an Zestaw wyrażeń jest tak proste, jak:

> eset <- GDS2eSet(gds, do.log2 = TRUE)

Teraz eset jest Zestaw wyrażeń który zawiera te same informacje, co w zbiorze danych GEO, w tym informacje o próbce, dane przekształcone logarytmicznie i adnotację sondy z powiązanej GPL. Dostępne są również funkcje konwersji do innych struktur danych BioConductor.


Szybka transformata Fouriera (FFT)

Szybka transformata Fouriera (FFT) to implementacja DFT, która daje prawie takie same wyniki jak DFT, ale jest niesamowicie wydajna i znacznie szybsza, co często znacznie skraca czas obliczeń. Jest to po prostu algorytm obliczeniowy używany do szybkiego i wydajnego obliczania DFT. Różne techniki szybkiego obliczania DFT znane pod wspólną nazwą szybkiej transformacji Fouriera lub FFT. Gauss jako pierwszy zaproponował technikę obliczania współczynników trygonometrycznych orbity asteroidy w 1805 roku. Jednak dopiero w 1965 roku przełomowa praca Cooleya i Tukeya przyciągnęła uwagę społeczności naukowej i inżynierskiej, która również zwróciła uwagę na podstawa dyscypliny cyfrowego przetwarzania sygnałów.


Wstęp

Filogenetyka bayesowska rozrosła się i obejmuje szereg powiązanych problemów wnioskowania, których podstawą jest obserwacja jednego lub więcej zestawień danych sekwencji molekularnych z ewolucyjnie powiązanych próbek wraz z powiązanymi informacjami. W zależności od szczegółów, powiązane informacje mogą mieć postać dat/miejsc pobierania próbek, ograniczeń kopalnych lub różnych cech ilościowych lub kategorycznych związanych z próbkami, dla których pobrano DNA.

Używamy terminu Bayesowska analiza ewolucyjna obejmować szeroki zestaw typów analiz, których podstawą jest model obejmujący jedno lub więcej drzew filogenetycznych lub genealogicznych. Obejmuje to tradycyjną filogenetykę, ale także genetykę populacyjną opartą na koalescencji, filodynamikę, filogeografię, uzgadnianie drzewa genowego/drzewa gatunkowego i powiązane analizy.

Pakiet Bayesian Evolutionary Analysis by Sampling Trees (BEAST) pierwszej generacji [1], [2] stał się popularną platformą do rozwiązywania takich problemów i przyjmuje filozofię modelowania, w której wszystkie te problemy analizy ewolucyjnej współdzielą jeden lub więcej czasu filogenetycznego. -drzewa. Drzewo czasu to zakorzeniona filogeneza, w której każdy węzeł (w tym końcówki) ma przypisany czas/wiek. Zazwyczaj niektóre czasy są znane (np. często czasy napiwków), a niektóre są nieznane i należy je oszacować (np. większość czasów rozbieżności przodków).

Ten artykuł opisuje nadrzędne szczegóły projektu i implementacji przepisanej platformy BEAST, którą oznaczyliśmy jako BEAST 2, a także przedstawia przykłady kilku znaczących nowych modeli opracowanych specjalnie dla tej nowej platformy.


Oprócz opcji drukowanych uczniowie mogą otrzymać swoje książki na urządzeniach, które kochają, za pośrednictwem produktów MyLab i Mastering firmy Pearson, Amazon i innych.

MyLab lub Mastering z Pearson eText

Produkty Pearson MyLab i Mastering z eTextem to praca domowa online, samouczki i programy oceny, które naprawdę angażują uczniów w naukę. Studenci mogą zaoszczędzić do 35%, kupując samodzielny produkt MyLab lub Mastering z Pearson eText. W ramach kursu MyLab lub Mastering studenci mogą zakupić ze zniżką wersję drukowaną tekstu na luźnych kartkach.

Pearsona e-tekst

Pearson eText to łatwy w użyciu podręcznik cyfrowy, który uczniowie mogą zakupić samodzielnie lub przydzielić do kursu. Umożliwia uczniom czytanie, zaznaczanie i robienie notatek w jednym miejscu, nawet w trybie offline. Utworzenie kursu umożliwia planowanie czytania, przeglądanie statystyk czytania i dodawanie własnych notatek bezpośrednio w eTekście, w momencie, w którym można się uczyć, co motywuje uczniów do dalszego czytania i uczenia się.

Kolekcje Pearsona

Elastyczna opcja tworzenia idealnych materiałów kursowych do sposobu, w jaki uczysz. Łatwe w użyciu narzędzia kuratorskie pomagają wybierać rozdziały i zasoby z obszernego katalogu Pearson, a także dodawać własne materiały, aby stworzyć idealnego towarzysza kursu.

E-teksty za pośrednictwem sprzedawców internetowych

Jeśli nie widzisz dostępnego w naszym sklepie Pearson eText dla Twojego podręcznika, mamy dla Ciebie ochronę. Współpracujemy z dostawcami eText, aby zapewnić studentom tysiące tanich, angażujących opcji eText. Studenci mogą kupować eText w Amazon, Google Play i innych sklepach internetowych.


Obejrzyj wideo: Retrieval of Gene Expression Profile or DataSets from NCBI GEO (Październik 2022).