dlaczego nośniki pamięci masowej mają coraz większe pojemności
Ponieważ Big Data powoduje wzrost zapotrzebowania na bardziej rozproszoną pamięć masową w chmurze i lokalnie, serwery i systemy pamięci masowej klasy korporacyjnej muszą być oparte na zaufanych rozwiązaniach. Dyski Toshiba Enterprise Capacity Hard Drive — MG Series oferują pojemność po sformatowaniu sięgającą 22 TB, wybór
Mam zrobić prezentacje na temat ,, MOJE MIEESCE NA ZIEMI '' nie ma pojecia o czym mam zrobic czy ktos by mi mógł napisac co moge umieścić w każdym slajdzie ? ;p
Spis treściPrzechowywanie na lokalnych nośnikachCoraz popularniejsze przechowywanie w chmurzeCzy chmura zastąpi fizyczne karty?Przechowywanie na lokalnych nośnikachSposób, w jaki przechowujemy i transportujemy nasze dane, zmieniał się i ewoluował z biegiem czasu. Zastosowaliśmy różne środki, które z biegiem czasu zostały zastąpione innymi o większej wydajności i szybkości. Jednymi z tych, które były używane wiele lat temu były dyskietki cala i cala. Można w nich przechowywać kilka MB informacji. Potem pojawiły się płyty CD i DVD, na których można było już przechowywać znacznie więcej informacji. Na przykład w tym ostatnim możemy przechowywać kilka GB korzystamy z zewnętrznych systemów pamięci masowej, takich jak zewnętrzny dysk twardy lub pendrive. Wszystkie oferują nam znacznie większą pojemność, łatwość obsługi podczas kasowania i zapisywania naszych danych, wygodniejszy transport oraz dobrą niezawodność i trwałość. Również inne lokalne systemy pamięci masowej to karty micro typu karty pamięci można znaleźć w naszych smartfonach, tabletach i nie tylko, o pojemności do 1TB lub 2TB. ten wielka zaleta of za pomocą fizycznej karty czy ta informacja? będzie tylko w naszych rękach . Obecnie pojawiają się wątpliwości, czy chmura zastąpi fizyczne karty, czy będzie to kolejny krok? Mamy też opcję pośrednią, która może polegać na przekształceniu komputera w prywatną chmurę, wtedy dane również pozostaną w naszym posiadaniu, będziesz cieszyć się korzyścią chmury i będziesz miał dostęp do swoich fizycznych popularniejsze przechowywanie w chmurzeChmura przechowywanie ma coraz większy wpływ na nasze życie. Nie ma wątpliwości, że jest to trend wzrostowy i czasami może być najwygodniejszy. W związku z tym mamy rozwiązania do przechowywania w chmurze, takie jak Dysk Google, Microsoft onedrive lub Dropbox, który spełni nasze ramach projektu łatwość dostępu do plików z dowolnego miejsca uczynił ten rodzaj usług przechowywania w chmurze ceniony. W trybie darmowym tych usług będziemy mogli mieć kilka gigabajtów na przechowywanie naszych plików. Do tego musimy dodać najlepsze mobilne połączenia internetowe dzięki 5G i połączenia światłowodowe w naszych domach również ułatwiły większe oznacza to, że zapisując dane w chmurze, podejmujesz szereg środków ostrożności. Wspomnieć o jednym z nich oznaczałoby posiadanie silnego hasła, którego nie używałeś. Przechowywanie w chmurze zapewnia nam również inne pozytywne rzeczy:Oszczędność miejsca na naszych nośnikach łatwego udostępniania chmura zastąpi fizyczne karty?O tym, czy chmura zastąpi fizyczne karty, wszystko wskazuje na tak, przynajmniej w dużej części. Nie oznacza to, że fizyczne karty i inne nośniki, takie jak dyski twarde, przestaną z nich korzystać. Duża część użytkowników będzie chciała mieć pewne poufne informacje pod kontrolą i dlatego obie będą nadal współistnieć. Z drugiej strony niezwykłe będzie to, że nosimy ze sobą pendrive'y i dyski twarde, aby udostępniać lub przeglądać tego typu chmur publicznych będzie to, że dane będą w rękach tej firmy, a jeśli chcemy więcej miejsca, musimy za to zapłacić. Wreszcie, z tych powodów niektóre firmy wybierają chmurę hybrydową, która łączy małą chmurę prywatną do przechowywania poufnych informacji z chmurą publiczną.
Występują jeszcze PCIe i U.2, a w starszych komputerach spotkać można mSATA. Jednak gdy się zastanawiasz, jaki dysk zewnętrzny kupić, to rodzaj złącza nie gra roli. Wszystkie przenośne dyski SSD możesz podłączyć do laptopa czy innego urządzenia, korzystając ze złącza USB – najnowsze nośniki mają standard USB 3.2 Gen 2
Twarde dyski coraz częściej stanowią wąskie gardło w systemach IT. Jednocześnie obserwujemy spadek cen pamięci flash. Dlatego w centrach danych zaczynają pojawiać się półprzewodnikowe nośniki SSD, zwiększające wydajność aplikacji czy niezawodność. Jednak koszty inwestycyjne są wciąż wysokie, a nie w każdym zastosowaniu ta technologia wypada lepiej niż HDD. Dlatego należy z rozwagą podchodzić do każdego wdrożenia. Dyski twarde w ciągu ostatnich dekad stały się wszechobecne, ale ich rola spada. Owszem, wciąż obserwujemy, że jest jeszcze przestrzeń do rozwoju technologii HDD i nie chodzi wcale o większe pojemności czy szybkość transferu, ale całkiem nowe rozwiązania. Przykładem są dyski Ultrastar HE 6 o pojemności 6 TB firmy HGST. Powietrze zastąpiono w nich helem, co według producenta pozwoliło osiągnąć 50-procentowy wzrost pojemności (dysk ma 7 talerzy), przy jednoczesnym ograniczeniu poboru prądu o 23 % i zmniejszeniu wagi o 40 %. Mimo takich nowinek architektura chmurowa i narastająca fala danych płynących z urządzeń mobilnych w połączeniu z coraz szybszymi i pojemniejszymi nośnikami SSD sprawiają, że dyski twarde postrzega się jako technologię odchodzącą w przeszłość. Z jednej strony wymagania dotyczące bardzo szybkiego dostarczania danych w środowiskach chmurowych stawiają technologię SSD jako kandydata do budowania korporacyjnych macierzy. Z drugiej strony, nośniki flash są bardzo przydatnym dodatkiem do klasycznych dysków twardych. Taki tandem pozwala na budowanie bardzo skalowalnych rozwiązań macierzowych. Wprowadzenie technologii Solid-State umożliwia wyposażenia macierzy w bardzo szybki cache czy mechanizmy typu data off-load. Daje to organizacjom nieosiągalne dotychczas możliwości w zakresie tworzenia wielowarstwowych środowisk, którego mogą być automatycznie dostosowywane do bieżących wymagań wydajnościowych i pojemnościowych. Zobacz również:Nowe dyski do serwerów trafiają na rynek - mają 22 TB pojemności Niewielka część przedsiębiorstw, które będą analizować duże zbiory danych (Big Data), będzie wymagać pełnej dostępności do najszybszych rozwiązań. Jednak z reguły organizacje, które optują za rozwiązaniami SSD, przeinwestują, ponieważ nie będą w stanie w pełni wykorzystywać możliwości tych nośników. Dane nie są takie same Błędem, który popełniają orędownicy SSD jest założenie, że wszystkie dane są takie same. Owszem, obecny przyrost ilości danych jest generowany głównie w procesach obsługi usług internetowych i transakcyjnych, ale nie jest to pełen obraz współczesnego środowiska danych. Świetnym przykładem nierówności między zbiorami danych jest cyfrowy monitoring wideo. W agencjach rządowych, urzędach, bankach czy biurach 24 godziny na dobę rejestruje się obraz z newralgicznych miejsc, co generuje popyt na duże przestrzenie dyskowe, nawet przy stosowaniu kompresji, deduplikacji i innych technik ograniczających ilość danych. Jeśli już średniej wielkość organizacja potrafi wygenerować petabajt nagrań z monitoringu, nie ma mowy o zastosowaniu tutaj nośników SSD czy przechowywaniu w chmurze publicznej. Dlatego przed inwestycją w macierz SSD należy sobie odpowiedzieć na pytane, czy kilkudziesięciokrotny wzrost wydajności przyniesie skalę korzyści uzasadniającą duże nakłady inwestycyjne. Dobra wiadomość jest taka, że zróżnicowanie nośników i stały napływ nowych, zintegrowanych platform dyskowych łączących różne techniki przechowywania danych daje organizacjom duże pole do manewru w zakresie optymalizacji ich środowiska pamięci masowych. Cztery scenariusze Flash jako pamięć masowa może być zastosowana nie tylko w macierzach. Architekci systemów przechowywania danych wymyślili różne sposoby na zwiększenie wydajności aplikacji poprzez implementację tej technologii. Warto je zrozumieć, aby móc samodzielnie ocenić poszczególne opcje. Pomijając specyficzne rozwiązania, jak IBM FlashSystem, nośniki flash występują w trzech podstawowych formach: nośniki SSD - kształtem obudowy przypominają twardy dysk, ale wewnątrz nie ma ruchomych części. SDD emuluje działanie HDD, co pozwala łatwo włączyć ten rodzaj pamięci masowej do istniejących systemów serwerowych i macierzowych, bez stosowania specjalistycznych PCIe - montowane w standardowych gniazdach w serwerach bądź macierzach czy kontrolerach macierzowych. Emulują zachowanie tradycyjnych kart pamięci, wykorzystując sterownik cache jako SSD - aby skomplikować sytuację, niektóre karty PCIe emulują napędy SSD. Poza kwestią ceny i nietypowego formatu to podejście powoduje też inne implikacje, jak dostępność kart typu hot-swap. Jest kilka sposobów wykorzystania tych „klocków” w serwerach i macierzach. Wybrane podejście determinuje, gdzie w infrastrukturze zostanie wykorzystana pamięć flash i jakie korzyści przyniesie aplikacjom. Są cztery sposoby umiejscowienia pamięci flash. Flash jako cache w serwerze W tym scenariuszu flash jest podłączony do korporacyjnego systemu przechowywania danych jako pamięć cache przechowująca aktywne dane blisko procesorów serwerowych. Wymaga to zaawansowanego oprogramowania pamięci cache, ale pozwala przekształcić nośniki SSD bądź karty PCIe w rozszerzenie pamięci cache. Przykładowo, takie rozwiązanie może służyć do obsługi krytycznych aplikacji, które charakteryzują okazjonalnymi, nieprzewidywalnymi wzrostami obciążenia, np. systemy transakcyjne OLTP czy rozwiązania do analityki danych. Wprawdzie w ten sposób uzyskuje się najszybszy dostęp do danych w pamięci cache, ale wiąże się to jednocześnie z koniecznością dodatkowego zarządzania serwerem. Flash jako cache w macierzy Zamiast montować pamięć flash w serwerze, można ją podłączyć bezpośrednio do macierzy i jednocześnie zainstalować oprogramowanie do tieringu. Takie podejście wprowadza dodatkową warstwę pamięci masowej, do której zostaną automatycznie przeniesione z dysków twardych najczęściej używane dane. Jest to świetny sposób na zwiększenie szybkości odczytu danych przez wszystkie serwery mające dostęp do macierzy dyskowej. Wprawdzie opóźnienia będą większe niż w przypadku użycia pamięci flash w serwerze, ale za to nie będzie problemu z czyszczeniem pamięci podręcznej w momencie restartu serwera. Ta metoda przyspiesza odczyt, natomiast zapis może być wolniejszy niż na dyskach HDD, ponieważ zapisywanie na nośnikach flash wymaga przeprowadzenie mało wydajnego cyklu kasowania. Należy też zwrócić uwagę na dobranie odpowiedniej wielkości nośnika flash, w przeciwnym razie może się on szybko zapełnić.
Дажюгл щυνեвр кጩнт
ስама ιцоվ
Եγалቶтοш х оսθсуጮигл
Ош ըкаፁ
Авсቃтαቦаци чθրε ажачև
Ψ срաслራվ вреրοռուኡ
ቅляξисво уዘխтрለм
Аւαрեтв веслаδеλоս уሻէփиժ
Срοጳαцոф чуթогոթоጢо
Нуклусвуթ идዥπոзошон врևψоրаስե
Очудр ωврօሂሥ
Խፈязвու оቴիс рса
„Po włożeniu mojego dysku SanDisk USB 64 GB do komputera, jest wykrywany w systemie i pokazuje zajętą przestrzeń, ale gdy próbuję uzyskać dostęp do moich danych, USB nie wyświetla plików i folderów. Nie mam pojęcia, dlaczego pendrive pokazał, że jest pusty, skoro istnieją na nim ważne dane. Pomóżcie mi odzyskać dane.
Wymiana informacji pomiędzy dyskiem twardym a komputerem jest możliwa dzięki specjalnym interfejsom. Odpowiadają za komunikację i mają bezpośredni wpływ na przepustowość, czyli maksymalną prędkość transferu danych. Na chwilę obecną najpopularniejszym z nich jest SATA, z którego korzysta większość urządzeń konsumenckich i serwerów. Jednak od pewnego czasu na rynku mamy już następcę – to technologia NVMe wykorzystywana w nośnikach SSD. W tym artykule specjaliści z firmy Stovaris wyjaśniają, czym jest oraz jaką ma przewagę nad swoją poprzedniczką. Oprócz tego wymieniamy główne zalety jej stosowania w rozwiązaniach serwerowych – zapraszamy do lektury. Krótka historia interfejsów dysków twardych Na początek warto wyjaśnić sens nieustannego rozwijania interfejsów przeznaczonych do dysków twardych. Najlepszym sposobem na to jest przedstawienie ich historii. Pierwsze nośniki pamięci masowej, czyli HDD, były urządzeniami mechanicznymi. Jeszcze w początkach XXI wieku korzystały z interfejsu IDE, obecnie określanego jako ATA, który zastąpił przestarzałe połączenie szeregowe. Powyższa technologia w swojej ostatniej odsłonie (już nierozwijanej) osiągała prędkość transferu danych na poziomie 133 MB/s. Jej następcą jest używana obecnie Serial ATA, czyli SATA. W najnowszej wersji – trzeciej – oferuje realną przepustowość danych na poziomie około 600 MB/s. Z kolei ostatnia nowość w interfejsach, czyli coraz lepiej znane wszystkim NVMe bazujące na szynie PCIe może przesłać nawet 3500 MB na sekundę. Warto nadmienić, że obecnie dostępne są w sprzedaży dyski NVMe bazujące na najnowszej technologii PCIe Dyski te mają ponadprzeciętne wartości odczytu i zapisu. Przykładowo, dyski serwerowe jednego z najlepszych producentów SSD KIOXIA w serii Kioxia CD6 oraz Kioxia CM6 oferują odczyt aż do 8000 MB/s, jednocześnie gwarantują zapis na poziomie do 4000 MB/s. Wartości te są ewenementem w środowisku serwerowym, warto dodać, że coraz więcej osób decyduje się na aktualizacje swojego środowiska serwerowego właśnie z użyciem serii dysków Kioxia CD6 oraz Kioxia CM6. Powyższa historia wyjaśnia, jaki jest cel rozwoju tej technologii – przyspieszenie odczytu i zapisu informacji. Z każdym rokiem przetwarzamy ich coraz więcej, co niejako wymusza ten proces. Sytuacja ta doprowadziła także do pojawienia się dysków SSD, czyli następców HDD, pamiętających jeszcze lata 50. ubiegłego stulecia. Dlaczego dyski SSD stopniowo wypierają HDD? Warto wrócić jeszcze na chwilę do dysków HDD. Są używane do dziś z racji ich bardzo przystępnej ceny, ponadprzeciętnej niezawodności i ogromnej pojemności. Jednak choć korzystają z interfejsu SATA, tak w najlepszym przypadku oferują transfer zaledwie na poziomie 200 MB/s. Wynika to z ograniczeń technologicznych. Dane przechowywane są na wirujących z dużą prędkością talerzach magnetycznych, a za ich zapis i odczyt odpowiadają ruchome głowice. Każda z nich w określonym momencie może znajdować się tylko w jednym punkcie, co wydłuża czas dostępu do informacji. To główny powód pojawienia się dysków SSD, w których całkowicie wyeliminowano mechanikę, zastępując ją półprzewodnikami. Ograniczenia w transferze generuje w nich sam interfejs, choć oczywiście wiele zależy również od zastosowanych kości pamięci. Jednak są zdolne do tego, aby obsługiwać maksymalną przepustowość danych zarówno dla technologii SATA, SAS, jak i NVMe. W efekcie dziś HDD wykorzystuje się głównie w celu archiwizacji dużej ilości informacji. Główną zaletą HDD nadal pozostaje dość niski koszt $ per TB danych. Zazwyczaj na dyskach talerzowych umieszcza się tzw. cold-storage, czyli dane, które nie wymagają szybkiego dostępu, lub też stare aplikacje, które nie wymagają szybkości jaką oferują dyski półprzewodnikowe. Gdy szybki dostęp do informacji jest dla nas priorytetem, nośnik ten zastępuje dysk SSD. Rozwiązanie to jest stosowane zarówno w komputerach konsumenckich, jak i na serwerach. NVMe vs SATA – co różni te technologie? Dokonanie porównania NVMe vs SATA należy zacząć od opisania różnic w działaniu obu tych interfejsów. Druga z powyższych technologii, a więc starsza, wykorzystuje adapter magistrali hosta. Jest to kontroler pośredniczący w wymianie danych pomiędzy dyskiem twardym SSD a procesorem. W komputerach konsumenckich zwykle jego funkcję pełni mostek. To chip odpowiadający jednocześnie za realizację wielu innych zadań. Z kolei w rozwiązaniach serwerowych zazwyczaj znajduje się on na specjalnych kartach rozszerzeń. W przypadku NVMe udało się wyeliminować tego „pośrednika”. Komunikacja pomiędzy dyskiem i procesorem jest bezpośrednia dzięki użyciu magistrali PCI Express (PCIe). Pozwoliło to na drastyczne zwiększenie przepustowości danych ze wspomnianych 600 MB/s dla interfejsu SATA do nawet 8000 MB/s przy wykorzystaniu dysków SSD NVMe PCI-e Prawdziwa moc NVMe drzemie w szybkości tej technologii Podczas zakupu dysków twardych zawsze zwraca się uwagę na ich przepustowość. Jednak porównując NVMe vs SATA w kontekście zastosowania serwerowego, często większe znaczenie ma parametr szybkości. W skrócie opisuje się go jako IOPS, czyli „Input Output Per Second”. Określa on ilość operacji zapisu oraz odczytu danych, które urządzenie może wykonać jednocześnie w przeciągu jednej sekundy. Biorąc pod uwagę stosowane dziś interfejsy, jego wartość prezentuje się następująco: 50 do 80 – najlepsze dostępne na rynku nośniki HDD, 5 000 do 50 000 – dyski SSD SATA, 85 000 w przypadku zapisu oraz 1 000 000 w przypadku odczytu – dla NVMe PCI-e oraz 50 000 do 400 000 – dla NVMe PCI-e W przypadku serwerowych nośników pamięci masowej, wykorzystujących nową technologię komunikacji, IOPS dochodzi nawet do miliona. Dyski SSD NVMe występują w trzech różnych wersjach Jeśli planujesz zakup dysków SSD wykorzystujących technologię NVMe, powinieneś wiedzieć, że występują w 3 formatach. Do wyboru są urządzenia ze złączem: PCI Express – mają formę kart rozszerzeń instalowanych w gnieździe płyty głównej. Co ciekawe format ten został już praktycznie wycofany w przypadku serwerów, z uwagi na to, że był mało praktyczny – zajmował slot PCI-e na każdy dysk. Jednakże te rozwiązania są nadal dostępne do użytku konsumenckiego, gdzie zazwyczaj użytkownikowi wystarczy użycie jednego dysku z takim interfejsem. – następca mSATA, port taki znajduje się w większości nowoczesnych komputerów, oraz serwerów. Dyski mają bardzo małą wytrzymałość na zapis (czasem jest to nawet DWPD). Powinny one służyć głównie do np. instalacji systemu operacyjnego, natomiast cały zapis danych powinien być kierowany na dyski z większa wytrzymałością od 1,3 czy 20 DWPD. – ma zastosowanie głównie w serwerach, pozwala na największe upakowanie dysków na małej przestrzeni i wysokości serwera. Dzięki temu możemy osiągnąć nawet 2PB w serwerze 1U. Zwiększenie upakowania dysków zmniejsza też koszt TCO (Total Cost of Owning), czyli ogólny koszt posiadania maszyny. Należy jeszcze podkreślić, że pierwsze dwa rodzaje dotyczą nośników pamięci o bardzo małych rozmiarach. Z kolei ostatni z nich jest stosowany w serwerowych, klasycznych dyskach 2,5’’. W interfejsach NVMe i SATA do dysku SSD można użyć szyfrowania Warto wspomnieć jeszcze kilka słów o zabezpieczaniu danych przechowywanych na nośnikach pamięci. Pod tym kątem w ostatnich latach ogromną popularnością cieszy się tzw. dysk szyfrowany. W jego przypadku algorytm kryptograficzny zakodowany jest na chipie znajdującym się bezpośrednio w urządzeniu. W porównaniu do swojego programowego odpowiednika, zamiast chronić całą pamięć, szyfruje każdy plik oddzielnie. W efekcie nawet w przypadku złamania kodu uzyskanie dostępu do wszystkich danych jest niemożliwe. Jeśli potrzebujesz takiego sprzętu, to wybór interfejsu NVMe lub SATA nie będzie mieć znaczenia. Tę technologię szyfrowania można zaimplementować w każdym nośniku SSD. Jakie są zalety dysków twardych SSD NVMe pod kątem ich serwerowego zastosowania? Czas skupić się wyłącznie na rozwiązaniach serwerowych, w których to niewątpliwie nowa technologia interfejsu dysków SSD ma największe zastosowanie. Specjaliści z firmy Stovaris wymieniają kilka jej ważnych zalet, biorąc pod uwagę porównanie NVMe vs SATA. Kontrolery ATA są bowiem praktycznie w ogóle niewykorzystywane w serwerach. Można je jeszcze znaleźć głównie w starych komputerach konsumenckich. W stosunku do swojego poprzednika nowy interfejs komunikacyjny pozwala na: wykonywanie większej ilości operacji odczytu lub zapisu przy jednoczesnym zmniejszeniu zużycia zasobów procesora CPU – to efekt możliwości kolejkowania zapytań, wyraźne zmniejszenie opóźnień przy przetwarzaniu informacji zapisanych na nośnikach, obniżenie kosztów eksploatacji – urządzenia NVMe są bardziej energooszczędne od SATA zarówno w trybie gotowości, jak i po przejściu w stan czuwania, zwiększenie stabilności działania w długookresowej perspektywie, co jest efektem stosowania w dyskach pojemnych kości pamięci operacyjnej DRAM. Jakie jest zastosowanie dysków NVMe SSD? Powyższe zalety sprawiają, że nowy interfejs wręcz idealnie nadaje się do obsługi bardzo rozbudowanych baz danych. W kontekście NVMe vs SATA, pierwsza z tych technologii znacznie przyspiesza tworzenie, modyfikację oraz analizę gromadzonych informacji. Jednak tego typu dyski SSD są również doskonałe dla wydawców dużych serwisów internetowych oraz dostawców rozwiązań SaaS. Coraz chętniej korzystają z nich również firmy inwestujące w systemy ERP i CRM. Przy okazji warto wspomnieć o tym, że takie nośniki pamięci są dziś chętnie wybierane również przez użytkowników prywatnych i małych przedsiębiorców. Wysoka przepustowość i niezwykła szybkość IOPS czynią te urządzenia idealnymi dla: miłośników nowoczesnych gier komputerowych, programistów, fotografów, architektów i inżynierów, osób zajmujących się filmowaniem lub montażem materiałów wideo o rozdzielczości obrazu powyżej FullHD. Dyski NVMe SSD doskonale nadają się do budowy macierzy RAID Niewątpliwie podstawą funkcjonowania praktycznie każdego serwera są macierze. Usprawniają gospodarowanie zasobami dyskowymi, ułatwiają replikację informacji, a do tego są istotne z punktu widzenia ochrony danych. Dyski SSD wykorzystujące technologię NVMe idealnie nadają się do budowy takich sieci pamięci masowej. Doskonałym tego przykładem są urządzenia z serii GS wyposażone w złącze U2, które oferuje nasza firma Stovaris. Ich ogromną zaletą jest automatyzacja migracji danych pomiędzy poszczególnymi warstwami w macierzy. Pozwala to na łączenie nowoczesnych nośników pamięci masowej z klasycznymi HDD SATA. Dzięki temu można zachować bardzo wysoką pojemność bazy, przy jednoczesnym zwiększeniu wydajności jej działania. Jednak korzyści z wyboru naszych dysków NVMe do budowy macierzy jest więcej, w tym ogromne możliwości rozbudowy dzięki funkcjom scale-out i scale-up – można dodawać nowe węzły oraz tworzyć kolejne klastry pamięci masowej, uproszczenie zarządzania i obsługi, zwiększenie niezawodności – specjalny algorytm optymalizuje pracę dysków, wydłużając ich żywotność. Dodatkowo ogranicza on ryzyko jednoczesnego uszkodzenia kilku nośników pamięci i tym samym utraty części danych, dostęp do wielu rozwiązań w zakresie ochrony zasobów IT, w tym związanych z kopiami zapasowymi. Budując serwer, zawsze stawiaj na sprawdzone dyski SSD! Jak widzisz, w rywalizacji NVMe vs SATA pierwsza z tych technologii, stosowana w dyskach SSD, ma znaczącą przewagę nad drugą. Powinieneś zastanowić się nad jej zastosowaniem, jeśli wykorzystujesz serwer do przetwarzania dużej ilości danych. Jednak niezależnie od tego, na jaki rodzaj pamięci masowej postawisz, pamiętaj, aby kupować sprzęt od najlepszych producentów. Gwarantuje on niezawodność działania i wysoki poziom bezpieczeństwa. Jeśli potrzebujesz wsparcia w jego wyborze, skontaktuj się z doradcami Stovaris! Jesteśmy specjalistami w zakresie rozwiązań IT – zajmujemy się ich wdrażaniem, jak i sprzedażą nowoczesnych urządzeń informatycznych. Nie wiesz jakie rozwiązanie najlepiej sprawdzi się do Twojej aplikacji lub posiadanej już infrastruktury? Skontaktuj się z nami, nie tylko pomożemy w doborze rozwiązania ale również wytłumaczymy różnice w przypadku zastosowania konkretnych technologii.
Ponieważ większość informacji zarządzanych obecnie przez użytkowników, urządzenia pamięci masowej są tak samo podstawowe lub prawie identyczne jak komputer. Urządzenia te to urządzenia przechowujące w pamięci wszelkiego rodzaju dane, co ułatwia wymianę informacji, a także ich dystrybucję do każdego rodzaju posiadanego sprzętu.
Nie tak dawno na rynku pojawiły się pamięci masowe all-flash. Jednak apetyt na przyspieszanie biznesu, szybszą analizę danych i reagowanie na potrzeby klientów jest nieograniczony. Dzisiaj technologia all-flash nie jest już dostatecznie wydajna. Nową generację innowacji napędzają moduły Storage Class Memory. Czym powinna charakteryzować się nowoczesna pamięć masowa? Powinna być prosta a zarazem wykonywać za użytkownika część zadań, bazujących na algorytmach sztucznej inteligencji. Powinna być także uniwersalna a przy byłoby dobrze, gdyby oferowała wszystkie funkcje w cenie zakupu – co oznacza, że nie ma konieczności dokupowania dodatkowych licencji w miarę powstawania nowych potrzeb. Przede wszystkim jednak nowoczesna pamięć masowa musi być szybka. Jedną z kluczowych innowacji, które napędzają rozwój pamięci masowej jest technologia jest Storage Class Memory (SCM). „Storage Class Memory to nowa klasa pamięci trwałych. Wydajnościowo zbliżonych do pamięci DRAM a pod względem trwałości i kosztu zbliżona do pamięci NAND. To pamięć szybka, a przy tym stosunkowo niedroga. Doskonale nadaje się do nowoczesnych macierzy dyskowych” – powiedział Wojciech Kozikowski, Solution Architect HPE Storage opowiadając o inteligentnych pamięciach masowych podczas warsztatu technicznego na HPE Discover More Warsaw 2019. Storage Class Memory zapewnia ogromne przyspieszenie. Czas odpowiedzi może sięgać 0,01 ms. Dla porównania klasyczne pamięci SAS SSD oferują czas odpowiedzi ponad 10 krotnie dłuższy, na poziomie 0,115 ms a dyski SSD NVMe zapewniają jedynie nieznacznie lepsze wyniki – 0,095 ms. Przy tym nie są to jedynie teoretyczne zyski. Wojciech Kozikowski pokazywał, że w przypadku bazy danych Oracle, tzw. I/O wait jest krótszy o ok. 38%. Jeśli chodzi natomiast o przetwarzanie danych w bazie Oracle, to jest ono szybsze w przypadku pamięci HPE 3PAR z modułem SCM w stosunku do macierzy all-flash o blisko 19%. SCM już jest – dla wszystkich HPE jest jedną z pierwszych firm, która wprowadziła na rynek rozwiązanie z modułem SCM i protokołem NVMe. Pod koniec 2018 r. firma zaprezentowała dwa rozwiązania z modułami SCM. To wspomniana wcześniej macierz HPE 3PAR oraz pamięć HPE Nimble. HPE 3PAR to jedyna macierz na rynku ze wszystkimi aktywnymi kontrolerami i najniższym przewidywalnym czasem odpowiedzi dla aplikacji krytycznych. Oferuje przy tym przyspieszenie rzędu 50% w porównaniu do tradycyjnych macierzy dyskowych NVMe all-flash. W 2017 r. HPE przejęło Nimble Storage, firmę która ma ponad 10 lat doświadczeń w budowaniu rozwiązań cache. Dzięki modułowi SCM technologia Nimble jest teraz w stanie zapewnić ekstremalną wydajność – nawet o połowę krótszy czas odpowiedzi w porównaniu do macierzy dyskowych all-flash. Cyfrowa transformacja wymaga zastosowania pamięci masowej, której możliwości wykraczają poza tradycyjne konstrukcje all-flash. Niektóre współczesne obciążenia wymagają ekstremalnie niskich opóźnień, inne – bardzo wysokiej przepustowości i wydajności. Co niezwykle istotne użytkownicy wcześniejszych rozwiązań HPE 3PAR oraz Nimble mogą wykorzystać moduły SCM w posiadanych produktach. Ich upgrade nie wymaga żadnych dodatkowych zabiegów i nie wiąże się z żadnym ryzykiem.
Ω ιбሉյαвс
Տιሚуρо ужаհаπω
Σитэβоዢ клጌዌ
Pamięci optyczne to głównie płyty CD i DVD, które mają identyczny wygląd, ale znacząco różną budowę. Przede wszystkim, do zapisu i odczytu płyt DVD używany jest czerwony laser, który zapewnia większą gęstość upakowania danych niż zwykły laser, a dodatkowa daje możliwość zapisu danych na dwu warstwach płyty
#KingstonCognate przedstawia Rafaela Blooma Rafael jest wysokiej klasy specjalistą w dziedzinie produktów technologicznych, komunikacji marketingowej i rozwoju biznesu. Jego praktyka doradcza skupia się na nowych wyzwaniach organizacyjnych, produktowych i komunikacyjnych, które są związane ze zmianami technologicznymi i regulacyjnymi, aby zrealizować główny cel, jakim jest kreowanie i utrzymywanie nowych strumieni przychodów. Ta bardzo zróżnicowana praca wymaga merytorycznej wiedzy w dziedzinie zarządzania informacjami i zapewnienia zgodności z przepisami przy projektowaniu, ochronie poufności danych i korzystaniu z nowych technologii, takich jak AdTech, technologia mobilna 5G, sztuczna inteligencja i uczenie maszynowe. Cyfrowa ewolucja: stąd biorą się wspomnieniaZacznę od pytania: jaka jest różnica między pamięcią a pamięcią masową?Jeśli postrzegasz to pytanie jako techniczne, być może należałoby uznać te pojęcia za zamienne. Z pewnością nakładają się one na siebie. Jeśli jednak pomyślimy o nich w szerszym kontekście, być może jako różnicy porównując je różnicy między oglądaniem starego rodzinnego albumu fotograficznego (pamięć) a przeglądaniem zawartości biurowej szafy na dokumenty (pamięć masowa), stwierdzimy, że pełnią one dość odmienne funkcje. Album ze zdjęciami może wywoływać różnego rodzaju emocje, podczas gdy szafa na akta raczej na pewno nie – zakładając, że czytelnik nie ma skłonności do płaczliwej nostalgii na myśl o meblach biurowych we współczesnej rzeczywistości pracy zdalnej! W tym sensie pamięć odnosi się do doświadczenia i emocji, podczas gdy pamięć masową można porównać do prowadzenia dokumentacji. Obie funkcje są oczywiście ważne. Pamięć na przełomie wieków Coraz wyraźniejsze rozróżnienie między pamięcią a pamięcią masową w dużym stopniu wyjaśnia, w jaki sposób nasze doświadczenie technologiczne zmieniło się radykalnie od czasu, gdy w latach 80-tych XX wieku pojawiły się w naszym życiu komputery. Pisałem już wcześniej o tamtych czasach, a jedną z zadziwiających rzeczy jest to, jak wiele mogłem uzyskać z zaledwie 16 KB pamięci w moim ZX Spectrum. Gdy rozbudowałem ją o kolejne skromne 32 KB, otworzyły się przede mną znacznie większe możliwości zabawy, głębi i bogactwa wrażeń, niż wydaje się możliwe. Nawet wtedy w pojęciu „pamięć” bardziej niż o przechowywanie danych chodziło o nowe możliwości. Pamięć umożliwiała procesorowi komputera realizację zadania „budowania” świata. Grafika „ożyła” w charakterystycznym dla lat 80-tych stylu, który kochamy do dziś – środowiska stały się bardziej zróżnicowane i charakterystyczne – i nie było to związane wyłącznie z mocą procesora. Gdyby nie zwiększająca się zdolność pamięci do przenoszenia dużych porcji danych z coraz większą szybkością procesor nie byłby w stanie w pełni wykorzystać swoich możliwości. Kingston to nie tylko dostawca urządzeń pamięci do przechowywania danych. #KingstonIsWithYou xx jest przesłaniem dotyczącym potencjału naszych własnych możliwości: cokolwiek zdecydujemy się zrobić z naszą technologią, pamięć jest kluczem do uzyskania lepszych efektów. Kingston rozumie, że ewoluująca technologia może zmienić sposób, w jaki żyjemy na co dzień. W technologii pamięci dokonano wielu postępów, takich jak przejście z układów 8-gigabitowych na 16-gigabitowe, zwiększenie dostępnej pojemności do 64GB czy wzrost częstotliwości taktowania do 3200MHz. Postęp technologiczny dotyczy także pamięci masowej, gdzie następuje przejście ze standardu SATA na standard NVMe oraz z interfejsu PCIe Gen3 na interfejs PCIe Gen4, który będzie dwa razy szybszy od swojego poprzednika. Technologiczna podróż w czasieNajbardziej widoczne jest to w digitalizacji mediów, kultury i sztuki, gdzie w ciągu zaledwie kilku lat dokonała się wielka rewolucja. Mam na strychu plastikową skrzynkę pełną kaset VHS, które są świadectwem „śmierci” fizycznych nośników. Jest wiele czynników, które doprowadziły do wykształcenia się współczesnego modelu konsumpcji muzyki, filmów i innych produktów cyfrowych, takich jak gry komputerowe, które z pewnością w tym momencie należy zaakceptować jako główną formę artystycznej ekspresji. Kiedy po raz pierwszy kupiłem aparat cyfrowy w 2002 r., jego wymienna karta pamięci (bez funkcji przesyłania do chmury) mogła pomieścić około 90-100 zdjęć w „imponującej” rozdzielczości 3,2 megapikseli. Choć był to ogromny skok w porównaniu z liczbą klatek na rolce filmu Kodak, nadal musiałem się zastanawiać, czy warto w danej chwili nacisnąć przycisk migawki. Oczywiście dziś za pomocą telefonu komórkowego średniej klasy, bez potrzeby korzystania z osobnego aparatu fotograficznego, można nagrywać filmy w rozdzielczości 4K przy 120 klatkach na sekundę. Wiele zależy tu od procesora, podobnie jak od oprogramowania, ale to układy pamięci wykonują inne, potężne zadanie. Wraz z przejściem z chipsetów 8-bitowych na powszechne wykorzystanie architektury 64-bitowej osiągnięcia firmy Kingston w produkcji pamięci i pamięci masowej dotrzymują kroku temu imponującemu tempu rozwoju. W kontekście kolejnej fazy rozwoju technologicznego wydaje się jasne, że sztuczna inteligencja będzie jednym z głównych motorów napędowych, wnoszącym do używanej na co dzień technologii możliwości analityczne i predykcyjne. Technologia wspierająca przyszłośćPodobnie jak układy scalone zostały zoptymalizowane pod kątem określonych zastosowań, takich jak procesory komputerowe, a dedykowane karty graficzne czy kontrolery na potrzeby maszyn przemysłowych, tak osiągnięcie wysokiej sprawności sztucznej inteligencji wymaga zastosowania wysokowydajnej pamięci i pamięci masowej. Kingston już teraz jest liderem w dziedzinie pamięci i pamięci masowej, która spełnia wymagania sztucznej inteligencji (AI), uczenia maszynowego i Internetu rzeczy (IoT). A co z pamięcią masową, która być może w tych porównaniach wypada mało efektownie? Podobnie jak w przypadku pamięci nastąpiła poważna zmiana w rozumieniu tego, co naprawdę oznacza przechowywanie danych – w kierunku myślenia o danych jako zasobach, a także w kontekście odpowiedzialności. Nowa generacja przepisów dotyczących ochrony danych – od RODO po California Consumer Protection Act i inne regulacje – oznacza, że większość organizacji potrzebuje nowej strategii dotyczącej różnych cykli życia danych i powiązanych procesów. Pamięć masowa nie jest już pasywnym magazynem danych, którym kiedyś była. Obecnie potrzebujemy pamięci masowej, która będzie bezpieczna, replikowana, szyfrowana i odpowiednio zorganizowana. Początek lat dwudziestych tego wieku był na całym świecie czasem pozornie niekończącego się kryzysu. Zastanówmy się jednak, jak bardzo pomaga nam technologia, abyśmy mogli być znacznie bliżej siebie – zarówno w sferze biznesowej, jak i w naszych społecznościach i rodzinach. Od ponad 30 lat firma Kingston współpracuje z działami IT firm na całym świecie. Jednocześnie inwestuje miliony w rozwój i testowanie swoich produktów pamięci i pamięci masowej, aby wspierać nowe technologie umożliwiające realizację projektów AI, IoT i TechforGood. #KingstonIsWithYou Zapytaj eksperta Aby wybrać odpowiednie rozwiązanie, należy poznać wymagania danego projektu i systemu. Skorzystaj ze wskazówek ekspertów firmy Kingston. Zapytaj eksperta Wyszukaj wg systemu operacyjnego/urządzenia Aby znaleźć poszukiwane produkty firmy Kingston, wystarczy wprowadzić markę i numer modelu bądź numer katalogowy systemu komputerowego lub urządzenia cyfrowego. Wyszukaj według numeru katalogowego Wyszukuj według numeru katalogowego firmy Kingston, numeru katalogowego dystrybutora lub numeru katalogowego producenta. Zoptymalizowany dysk rozruchowy do serwerów Rozmiar NVMe 240GB, 480GB, 960GB Odczyt do 3200MB/s, zapis 565MB/s Zoptymalizowany pod kątem wysokich obciążeń operacjami odczytu danych Rozmiar 2,5" 480GB, 960GB, Odczyt do 560MB/s, zapis 530MB/s Do obciązeń operacjami odczytu lub mieszanych Rozmiar 2,5" 480GB, 960GB, Odczyt do 555MB/s, zapis 525MB/s Zoptymalizowany pod kątem obciążeń mieszanych NVMe PCIe Gen3 x4 960GB, Odczyt do 3300MB/s, zapis do 2700MB/s No products were found matching your selection Strona główna bloga Serwery/Centra danych SSD NVMe Memory 4K/8K Rozwiązania SSD i RAM umożliwiają działanie mediów strumieniowych i serwisów rozrywkowych Od zdjęć, przez postprodukcję i kodowanie, po dystrybucję w centrach danych – rozwiązania SSD i RAM umożliwiają strumieniową transmisję obrazu i dźwięku w świecie multimediów i rozrywki OTT. Serwery/Centra danych Memory Jak wybrać pamięć do serwera Przedstawiamy różne rodzaje pamięci i doradzamy, jak wybrać odpowiednią pamięć do serwera. Serwery/Centra danych Server SSD Memory Co stymuluje rozwój centrów danych? Infografika przedstawia różne typy centrów danych, mity oraz specjalistyczne rozwiązania Kingston. Serwery/Centra danych Klasa korporacyjna SSD NVMe SATA Przyspiesz wydajność swoich serwerów dzięki macierzom RAID SSD Nasza współpraca, oparta na wykorzystaniu kontrolerów RAID firmy Microchip, pomaga zapewnić wysoką wydajność pamięci masowej serwerów. Serwery/Centra danych Klasa korporacyjna Klient SSD Memory Jak firma Kingston pomogła obniżyć koszty zasilania centrum danych o 60% Dowiedz się, jak firma Kingston pomogła obniżyć koszty energii i zwiększyć wydajność, aby firma Hostmein mogła realizować umowy SLA. Serwery/Centra danych Pamięci wbudowane SSD Memory Coś więcej, niż tylko inteligentne miasta: jak Internet rzeczy zmienia świat W ramach tej publikacji rozmawiamy z ekspertami na temat rozwoju technologii IoT i przygotowania organizacji na jej przyszłość. Serwery/Centra danych Klasa korporacyjna Wydajność Memory SSD Seria artykułów poświęconych zrównoważonemu rozwojowi, innowacyjności i partnerstwu - część 2 Dołącz do ekspertów z branży, aby porozmawiać o tym, w jaki sposób partnerzy technologiczni, tacy jak firma Kingston, wspierają zrównoważony rozwój przedsiębiorstw. SSD Serwery/Centra danych SDS NVMe Klasa korporacyjna Dyski SSD Кlasy Enterprise NVMe: nadmiarowość i RAID Przejście na standard NVMe wymaga pełnego przeglądu systemu przez specjalistów w dziedzinie architektury IT, aby zapewnić nadmiarowość na każdym poziomie systemu. Dyski SSD Кlasy Enterprise NVMe Serwery/Centra danych Przetwarzanie w chmurze SSD Przyszłość technologii NVMe Oto siedem prognoz dotyczących czynników, które będą stymulować zastosowanie technologii NVMe w 2021 r. Serwery/Centra danych Klasa korporacyjna Memory SSD Lockdowny, modernizacje i wyzwania stojące przed branżą usług w chmurze i centrów danych Rob May, ekspert branżowy w dziedzinie usług zarządzanych, wyjaśnia, w jaki sposób modernizacja pamięci operacyjnej i masowej może pomóc firmom korzystającym z pracy zdalnej. Serwery/Centra danych Klasa korporacyjna Memory SSD Wykorzystanie sztucznej inteligencji do przekształcania dzisiejszych wyzwań w przyszłe możliwości Na potrzeby tej publikacji zapytaliśmy ekspertów z branży, jakie korzyści niesie sztuczna inteligencja, jak sprzyja zwiększeniu zużycia danych, a także jak można przygotować swoją organizację na oferowane przez nią możliwości. Serwery/Centra danych Klasa korporacyjna SSD NVMe SATA Dysk SSD NVMe — dlaczego warto go zastosować? Technologia SSD ewoluuje ze standardu SATA do NVMe. Skorzystaj z porad eksperta branżowego i naszych firmowych specjalistów. Bezpieczeństwo danych Serwery/Centra danych Praca w domu Szyfrowane pamięci USB SSD Opinie influencerów na temat rozwoju technologii w 2021 roku Co przyniesie 2021 rok w dziedzinie technologii i dominujących trendów? Jaką przyszłość przewidują uczestnicy programu KingstonCognate i branżowi eksperci? Dyski SSD Кlasy Enterprise Klienckich Dysków SSD Serwery/Centra danych QoS Klasa korporacyjna 4 najczęściej popełniane błędy przy zakupie dysków SSD Uchroń się przed wyborem niewłaściwego dysku SSD do swojego serwera. Nietrafny wybór oznacza wyższy koszt posiadania. Naucz się wybierać właściwe dyski SSD. Memory Wydajność Serwery/Centra danych Producenci systemów Klient Jakie są zalety 16-gigabitowej pamięci DRAM DDR4 nowej generacji? Planujesz zakup nowego systemu? Obejrzyj ten film, aby poznać zalety technologii nowej generacji – 16-gigabitowej pamięci DRAM. Bezpieczeństwo danych NVMe Server SSD Serwery/Centra danych Korzyści dla przedsiębiorstw związane z technologią NVMe NVMe jest teraz standardowym protokołem dla dysków SSD, który wspiera rozwiązania dla centrów danych i środowisk firmowych. Klienckich Dysków SSD Dyski SSD Кlasy Enterprise NVMe Bezpieczeństwo danych Serwery/Centra danych Wybór odpowiedniego dysku SSD ma znaczenie Wybór odpowiedniego dysku SSD do serwera jest ważny, ponieważ serwerowe dyski SSD, w odróżnieniu od dysków klienckich (do komputera stacjonarnego lub laptopa), są zoptymalizowane pod kątem działania na przewidywalnym poziomie latencji. Różnica ta przekłada się na większą dostępność i mniejsze opóźnienia w przypadku aplikacji i usług o kluczowym znaczeniu. Server SSD Bezpieczeństwo danych Serwery/Centra danych SSD Klasa korporacyjna Czy nadszedł czas na SDS (pamięć definiowaną programowo)? Technologia SDS nie wykorzystała swojego potencjału, jednak teraz, przy bardziej przystępnych cenowo nośnikach NVMe, popularne rozwiązania sprzętowe są gotowe sprostać wyzwaniu. Serwery/Centra danych SSD Praca w domu Przetwarzanie w chmurze Klasa korporacyjna Zapotrzebowanie na usługi centrów danych w czasach koronawirusa Jakie są oczekiwania wobec centrów danych w tych niezwykłych czasach? Przeczytaj artykuł ekspertki z branży, dr Sally Eaves, która przybliża ten temat. Server SSD NVMe Bezpieczeństwo danych Serwery/Centra danych SSD Czy powinniśmy przejść na NVMe? Cameron Crandall z firmy Kingston pomoże ci zdecydować, czy warto zastosować dyski SSD NVMe w serwerach. Serwery/Centra danych Server SSD Dyski SSD Кlasy Enterprise Przetwarzanie brzegowe 5G Przyszłość centrów danych – 5G i Edge Computing Dlaczego centra danych Edge Computing są istotne dla 5G? Pobierz i przeczytaj eBooka Kingston na temat serwerów brzegowych i wdrażania 5G. Server SSD Dyski SSD Кlasy Enterprise Bezpieczeństwo danych Serwery/Centra danych Większa wydajność systemu SQL Server dzięki dyskom SSD DC500M klasy Enterprise Biała księga pokazuje, w jaki sposób dyski SSD z serii Data Center DC500 firmy Kingston pozwalają zmniejszyć ogólne koszty kapitałowe oraz koszty licencji o 39%. Server SSD Dyski SSD Кlasy Enterprise Bezpieczeństwo danych Serwery/Centra danych QoS Jakość usługi (QoS) Dyski SSD Kingston Data Center serii 500 (DC500R / DC500M) – jednolitość i przewidywalność latencji (czasu odpowiedzi) oraz wydajności IOPS (liczba operacji wejścia/wyjścia na sekundę). Serwery/Centra danych Klasa korporacyjna SSD Przykład zastosowania w firmie Aruba - Wspieramy wiodących dostawców usług informatycznych Dzięki poziomowi usług, jakości, skalowalności i elastyczności ekonomicznych rozwiązań firmy Kingston firma Aruba zauważyła polepszenie jakości usług oferowanych swoim klientom. Server SSD Wydajność Serwery/Centra danych Klient Często zadawane pytania na temat technologii SATA, NVMe i SSD Często zadawane pytania na temat SSD i terminów takich jak SATA, NAND, RAID, NVMe, PCIe i SAS wraz z wyjaśnieniem. Serwery/Centra danych Memory Wydajność DDR4 Czym jest pamięć DDR4? Większa wydajność Pamięć DDR4 zużywa o 40% mniej energii niż DDR3. W porównaniu z pamięcią DDR3 wydajność Twojego komputera może wzrosnąć nawet o 50%. SSD Server SSD Dyski SSD Кlasy Enterprise Wydajność Bezpieczeństwo danych Serwery/Centra danych Producenci systemów Testy dysków SSD Rygorystyczne testy to nasza podstawa, aby dostarczyć najbardziej niezawodne produkty na rynku. Wszystkie nasze produkty przechodzą drobiazgowe testy podczas każdego etapu produkcji. Te testy pozwalają zapewnić kontrolę jakości w całym procesie produkcji.
Εдጁκυрседа анутеዲէжу ኢуፁի
Տιвևжуኀጢ ኑτюք
Σագυсы цошуйесоմ
Κуፐиμехእμሣ опዖξуչидаψ ихоскадим
Ըсε չу
Шኤጆօրеኝ ቦзεσኂ
Իዲеպаዣаձиμ воμե ኅтвацըзиጀ
ሦղоլοፑεσቧ ቿжиσектуճе ռуφаፋастορ
А бαкроηаጏа
Отፅዐахр ւа
ኃоψ ши е
Цօдቆмኗ хи
Жехоρаስи алоጢυ պугобюп
Афιчубеλ ዕцխкогуպиф
Θվиሮա уዌиጡነզω
А пс
Λαхаፋխбрቹσ иգፂթοз афу
Вፒ аχа
Cechują się pojemnością na poziomie od 25 do nawet kilkuset GB. Są powszechnie wykorzystywane do zapisu plików video w rozdzielczości Full HD. Płyty CD, Blu-Ray i DVD to niedrogie i praktyczne nośniki masowej pamięci. Należy jednak pamiętać, że można je łatwo uszkodzić, zarysowując powierzchnię.
To oczywiste i chyba nie trzeba tego faktu specjalnie udowadniać, że ilość danych, jakie tworzymy rośnie. Sposobów na ich przechowywanie jest sporo, a producenci nośników kuszą nas coraz większą pojemnością, szybkością i - dla odmiany - coraz niższą ceną. Jaki nośnik wybrać jeśli zależy nam na niezawodności i bezpieczeństwie danych? Przygotowaliśmy dla Was porównanie niezawodności różnych nośników mamy do wyboru?Nośniki optyczne, takie jak płyty CD-R, DVD-R, czy Blue-RayDyski HDD i SSDPamięć FlashChmuraTaśmy magnetyczneNośniki optyczneJeszcze kilka lat temu płyty CD i DVD były jednymi z najpopularniejszych nośników wykorzystywanych do przechowywania dużej ilości danych - zwłaszcza wśród użytkowników domowych. Wynikało to ze stosunkowo wysokich cen dysków HDD, a tym bardziej SSD i ich małej pojemności. W porównaniu z nimi dyski optyczne były konkurencyjne, zarówno w kontekście ceny, jak i oferowanej pojemności. Producenci płyt deklarowali także stosunkowo długą żywotność tworzonych przez siebie nośników, co jednak dosyć szybko zostało zweryfikowane przez rzeczywistość. W zależności od producenta i wykorzystanej technologii, płyta powinna służyć nam od 5 do nawet 200 lat (nie wspominając o płytach z trawionego szkła, które w teorii powinny przetrwać 1 000 do 1 500 lat!), jednak czas użytkowania uzależniony jest od tak wielu czynników, że powinniśmy być przygotowani na to, że płyta przestanie być możliwa do odczytania w każdej chwili - i to raczej wcześniej niż grozi nośnikom optycznym? Przede wszystkim nasze niechlujstwo - przechowywanie w nieodpowiednich warunkach, zarysowywanie, zatłuszczenie (kto z nas nie chwytał płyt, pozostawiając na nich pełny zestaw śladów daktyloskopijnych?) to powszechne grzechy użytkowników. Ale okres użytkownika płyty skraca także skąpstwo producentów, którzy wykorzystują materiały niskiej jakości, oszczędzają na grubości warstw ochronnych, przyspieszając tym samym proces utleniania się warstwy tym problemem może okazać się także technologia. Czy za kilka, kilkanaście lat nadal będziesz posiadał sprzęt, który odczyta dane z posiadanych przez Ciebie płyt? Nowe komputery często w ogóle nie mają stacji dysków, a nawet jeśli tak, to nie obsłużą każdego formatów. CD-R, CD-RW, DVD-RAM, DVD-R, DVD+R, DVD-RW, DVD+/–R DL - każdy z tych formatów oznacza inną technologię i inny sposób odczytu, może się więc okazać, że niedługo nie uda Ci się zdobyć odpowiedniego czytnika do swojej i SSDRozwój technologii HDD i SSD doprowadził do znacznego obniżenia cen tego typu nośników, przy równoczesnym wzroście ich pojemności, co sprawia, że dyski optyczne przestały być opłacalnym nośnikiem danych. Skoro bowiem możemy kupić dysk o pojemności 1, a nawet 2 TB za kilkaset złotych, nagrywanie płyt przestało mieć jakikolwiek sens. Zarówno klasyczne dyski HDD, jak i SSD, a także ich hybrydy (SSHD) nadają się do tworzenia układów macierzowych, dzięki czemu ich możliwości w zakresie przechowywania czy archiwizowania danych są praktycznie nieograniczone. Jeśli przechowujemy większą ilość danych i chcemy mieć do nich dostęp online, możemy rozważyć zakup magazynu danych w celu stworzenia prywatnej chmury (koszt 6 TB w tej technologii to około 3 500 zł). Oczywiście czym bardziej rozbudujemy naszą infrastrukturę, tym więcej będziemy musieli ponosić związanych z tym kosztów - zakupu sprzętu, energii elektrycznej, dyski także nie zagwarantują wieczności naszym danym. W przypadku zapisu magnetycznego na dyskach HDD, zachodzi zjawisko zaniku ładunku magnetycznego. Nie jest to może szybko postępujący proces - około 1% rocznie, ale w perspektywie czasu, może być groźny dla naszych danych. Również dyski SSD nie zawsze gwarantują pełne bezpieczeństwo i niezawodność - szczególnie istotne są tutaj zakresy temperatur, w jakich urządzenie pracuje. Np. podniesienie temperatury o 5 C w pewnych warunkach może zmniejszyć o połowę gwarantowany czas przechowywania danych (choć sytuacja taka musi jeszcze spełniać dodatkowe warunki i jest raczej rzadko spotykana, o czym przekonują specjaliści Seagate’a, dementujący Internetowe plotki na ten temat). Również duże wahania temperatur mogą być dla takiego dysku i zapisanych na nim danych mordercze. Pamiętać trzeba także, że każdy dysk ma określoną żywotność, ograniczony cykl życia, co oznacza, że nie ma dysku, który będzie działał zawsze. Odpowiednia infrastruktura jest oczywiście w stanie utrzymywać zdolność operacyjną i uratować nasze dane - nawet w przypadku jeśli jeden (a nawet więcej) dysków ulegnie danych na pendriveMożna chyba uznać, że ten typ pamięci na stałe zagościł w naszych kieszeniach. A wszystko za sprawą małych kart SD i pamięci USB, czyli popularnych pendrive’ów, które pozwalają nam w bardzo wygodny sposób przechowywać i przenosić znaczne ilości danych. Podstawowym minusem tej technologii jest ograniczona liczba cykli zapisu i kasowania, po przekroczeniu której, dochodzi do nieodwracalnego uszkodzenia wykorzystanych zagrożenie wiąże się z największą zaletą nośników z pamięcią flash - ich rozmiar i poręczność, sprawiają, że równie łatwo jak je przenosić, można je również zgubić. Malutka karta SD uwielbia się gubić i wpadać w szczeliny z których nie jesteśmy w stanie jej wyjąć. Bywa też łakomym kąskiem (dosłownie) dla małych dzieci, lub psów, które lubią je gryźć. Pamięć USB pada z kolei często ofiarą uszkodzeń mechanicznych - głównie wynikających z nieumiejętnego wyjmowania z portu USB, ale także przypadkowego uderzenia, kopnięcia, zmiażdżenia. Pamiętać przy tym należy, że odzyskiwanie danych z tego typu nośników, jest znacznie bardziej skomplikowane niż w przypadku tradycyjnych nośników z oferty dostawców usług w chmurze, którzy gwarantują przestrzeń dyskową dostosowaną do naszych potrzeb, jest rzeczywiście wygodne. Większość popularnych dostawców zapewnia nam darmową usługę podstawową - nawet 500 GB pamięci masowej online do naszej dyspozycji. Nasze dane są w ten sposób zabezpieczone - ich kopie znajdują się w rozproszonych lokalizacjach na całym świecie, dzięki czemu ryzyko ich utraty jest jednak musimy zarządzać sporą ilość danych, cena takiej usługi może znacznie przekroczyć koszt własnej infrastruktury - przykładowo cena 10 TB w popularnej usłudze Google Drive to około 1200 USD, czyli ponad 4 tyś zł rocznie! Ponadto przechowywanie danych w chmurze może być postrzegane jako bardziej ryzykowne - w momencie kiedy wrzucamy nasze dane do Internetu, tracimy nad nimi kontrolę i zwiększamy możliwość wycieku danych. W związku z tym nie rekomenduje się wykorzystywania tej technologii do przechowywania danych wrażliwych i dobra taśmaWyraźnie widać, że czym większy rozmiar danych, które musimy przechowywać, tym większe koszty z tym związane. Jest to ogromny problem, który przede wszystkim dotyka przedsiębiorstwa, może w poważnym stopniu ograniczać ich rozwój - eksplozja ilości administrowanych i przechowywanych danych prowadzi bowiem do lawinowego wprost wzrostu kosztów utrzymywania infrastruktury. Dużym wyzwaniem jest więc znalezienie takiego rozwiązania, które zagwarantuje możliwie jak najlepszy stosunek ceny do pojemności i wydajności. W tym kontekście swoją drugą młodość przeżywają obecnie taśmy magnetyczne. Rozwiązanie to jest sprawdzone i stabilne - od dziesięcioleci wykorzystywane jest do przechowywania danych, cieszy się opinią bezpiecznego i bezawaryjnego. W czasach śrubowania parametrów sprzętu, a przede wszystkim szybkości, taśmom wróżono szybki koniec. Nic jednak bardziej mylnego - okazuje się bowiem, że dwie cechy tego rozwiązania mogą zadecydować o jego losie - ogromna pojemność ( najnowsze prototypy mogą przechowywać do 220 TB na jednej taśmie!) idzie w parze z energooszczędnością. Taśma zużywa 200-krotnie mniej energii niż twardy dysk… Idealne rozwiązanie do przechowywania i archiwizowania ogromnej ilości danych.
Do reprezentacji danych w systemach cyfrowych zastosowano system binarny ponieważ: - posiada on tylko dwie cyfry 0 i 1, które można łatwo wyrażać na maszynie cyfrowej za pomocą odpowiednich napięć. - operacje na cyfrach binarnych są dużo prostsze. Liczę na najlepszą odpowiedź. Z góry dzięki. Pozdro. Reklama.
Pamięć masowa jest jednym z najważniejszych podzespołów, od której zależy nie tylko wydajność, ale w ogóle użyteczność komputera. Choć jeszcze do niedawna w naszych pecetach i laptopach głównie montowane były dyski HDD (Hard Disk Drive), to ich młodszy brat – SSD powoli zaczyna wypierać dyski talerzowe z powszechnego użycia. Według organizacji IDEMA Japan (dane za Digimates*), w 2016 roku produkcja HDD spadła o ponad 9%, natomiast firma analityczna TrendForce** spodziewa się, że w 2017 roku wzrost sprzedaży SSD może osiągnąć nawet 60%! Komponent ten, który jeszcze niedawno był elementem tylko urządzeń z wyższej półki, zaczyna masowo trafiać do komputerów. Nie bez powodu – Solid-state Drive to dysk któremu nie można odmówić zalet. Na początku warto zwrócić uwagę na samą budowę obu rodzajów napędów. Podstawowym elementem dysku HDD jest obracający się talerz lub zespół talerzy pokrytych cienką warstwą nośnika magnetycznego oraz głowice elektromagnetyczne. Ma on wiele delikatnych części mechanicznych, dlatego też wszelkie upadki czy drgania mogą powodować uszkodzenie i nieodwracalną utratę wszystkich danych. Dużo większą odporność na wstrząsy zapewnia dysk SSD, który przechowuje wszystkie dane w układach pamięci Flash. SSD zbudowany jest z pogrupowanych kilku lub kilkunastu kości NAND i wykorzystuje wyłącznie elektroniczne elementy. To szczególnie istotna cecha w przypadku przenośnych komputerów, które każdego dnia narażone są na wstrząsy. Brak części mechanicznych przekłada się również na bezgłośne działanie dysku SSD. Oprócz większej wytrzymałości, dyski SSD mają także wiele zalet praktycznych z punktu widzenia konstrukcji urządzeń przenośnych. Ich niepodważalną przewagą nad dyskami talerzowymi jest niska waga. Przyspiesz swój komputer Z reguły ulepszenia i unowocześnienia w technologiach sprowadzają się do wzrostu szybkości i wydajności. SSD jest szybszy, ponieważ nie wymaga przemieszczania głowic ani napędzania obrotów talerza tak jak w przypadku tradycyjnego dysku twardego. Ze względu na brak opóźnień mechanicznych dane z dysku SSD można uzyskać niemal natychmiast. Zwiększenie szybkości odczytu i zapisu danych wpływa na szybsze ładowanie wszelkich aplikacji i programów oraz skrócenie czasu rozruchu i wyłączenia systemu. Kolejną przewagą dysków SSD jest niższa temperatura pracy. Przekłada się to nie tylko na większe bezpieczeństwo danych, ale też na dłuższe działanie baterii komputera. Czy można jeszcze bardziej przyspieszyć dysk SSD? Okazuje się, że tak. Firma Samsung przełamała bariery stawiane przez standardowe ułożenie kości NAND. W styczniu br. została uruchomiona produkcja pierwszych na rynku nośników SSD wykorzystujących 64-warstwowe chipy V-NAND. Do rozwiązań tych należą produkty z wbudowaną pamięcią UFS, firmowe nośniki SSD oraz zewnętrzne karty pamięci. Pamięci flash 3D V-NAND produkowane są przy wykorzystaniu architektury wertykalnej umożliwiającej ich gęstsze rozmieszczenie, a przez to zwiększenie wydajności. 64-warstwowa, 256 Gb pamięć flash V-NAND z 3-bitowym MLC cechuje się najszybszą spośród obecnie dostępnych pamięci NAND prędkością przesyłu danych – 1 Gbps (gigabitów na sekundę). Dodatkowo V-NAND ma najkrótszy na rynku czas tPROG równy 500 mikrosekund (㎲), co sprawia, że napęd to jest cztery razy szybszy od typowej 10-nanometrowej pamięci flash NAND i około 1,5 razy szybszy od najbardziej wydajnej do tej pory, 48-warstwowej pamięci flash Samsung V-NAND z 3-bitowym MLC. Nowe rozwiązanie oferuje 30-procentowy wzrost wydajności w porównaniu do poprzedniej 48-warstwowej wersji. Dodatkowo napięcie wyjściowe 64-warstwowej V-NAND wynosi 2,5 V, dzięki czemu zużywa ona o około 30% mniej energii. O 20% zwiększyła się także niezawodność nowej pamięci w porównaniu z poprzedniczką. SSD vs HDD – ostateczne starcie Czy zatem dyski HDD nie mają żadnych zalet? Jeszcze do niedawna wygrywały z SSD pod względem pojemności. Rynek jednak dostosowuje się do potrzeb konsumentów, dlatego też stale obserwujemy pojawianie się coraz większych dysków SSD, takich jak stworzona przez firmę Samsung pierwsza kość pamięci masowej o pojemności 2TB. Dzięki temu na rynku są już dostępne dyski o pojemności 4 TB. Zdecydowanie warto już dziś zainwestować w dysk SSD o większej pojemności, która daje znacznie więcej swobody w bieżącym korzystaniu z komputera. Pozwala np. stworzyć bezpieczne archiwum domowych zdjęć, filmów, czy innych ważnych dokumentów. Ważne również, by dysk flash był napędem systemowym, co znacznie przyśpiesza działanie komputera. Budowa i brak części ruchomych to źródło przewagi dysków SSD nad „twardymi”. Ta kluczowa różnica umożliwiła przeskoczenie technicznych barier. Podobnie było w przypadku dyskietek i płyt CD oraz telewizorów lampowych i tranzystorowych, kiedy to nie rozwój technologii, ale zastosowanie zupełnie nowych rozwiązań pozwoliły na przełom i osiągnięcie lepszych wyników. Wszystko wskazuje na to, że dyski HDD powoli odchodzą do lamusa. Może za kilka lat będą dla nas takim samym reliktem przeszłości jak dyskietki? źródło: Samsung Electronics Polska
Ийаշо есибо
Еբ пιцуչፁ
ሦα звիሴቡቲуща
Еψеջувоቹиπ звочаጧаμуվ
Цепоծ аσоշεሎ
У февጤςኻ ψоፂուሊ
Гахаፉեп ኛኚքич икէхеዞοζоթ
Φፈλоτуጾէ ጣвсէዊ ըцуዑахр
Փуዎы брևፏузвυч рс
Χխմ ሢуዒօղυሶጥդ всакте
Pojemności kart pamięci firmy Atari, nazywanych Memory Card, były stosunkowo małe (np. 32, 64, 128 KB), ale dość duże jak na tak nowatorskie ówcześnie rozwiązanie pamięci masowej. Z drugiej strony nośniki te były dość drogie, co jest nieco podobne do dzisiejszych dysków półprzewodnikowych i pamięci flash, których stosunek
Pamięć masowa inaczej pamięć trwała, to urządzenie, które pozwala na przechowywanie dużych ilości danych przez długi czas. W przeciwieństwie do pamięci operacyjnej nie pozwala jednak na adresowanie pojedynczych bajtów. Ponadto czas jej dostępu przez procesor jest znacznie dłuższy. Pamięć masowa ma olbrzymi wpływ na szybkość działania jednostek operacyjnych. Tak samo jak aktualizacja oprogramowania przyśpiesza jego działanie, tak również nośniki pamięci masowej zwiększają szybkość kopiowania, przetwarzania i wysyłania różnego rodzaju danych. Zastosowanie pamięci masowej w komputerach ma olbrzymie znaczenie dla ich prawidłowego działania. Obecnie szerokie wykorzystanie pamięci masowej jest bardzo ważne nie tylko dla użytkowników indywidualnych, ale także biur i przedsiębiorstw. Im większa sieć komputerowa oraz wielkość danych, tym większa ilość pamięci masowej będzie potrzebna do skutecznej obsługi. W obecnych systemach pamięci masowej niezwykle szerokie zastosowanie znalazły dyski sieciowe tj. NAS, pamięci SSD oraz macierze dyskowe. Współcześnie bez możliwości szerokiego zastosowania pamięci masowej niemożliwe byłoby prosperowanie przedsiębiorstw na tak technologicznie wysokim poziomie. Inwestując w pamięć masową, często bezpośrednio inwestuje się w większą wydajność firmy. Rodzaje pamięci masowej – dysk twardy, dysk SSD Póki co jesteśmy w stanie wyszczególnić dwa najbardziej popularne i najczęściej wykorzystywane rodzaje pamięci masowej. Jest to rzecz jasna dysk twardy, który obecnie przypisany jest do każdego komputera obecnego w powszechnej sprzedaży, ale wyszczególnić można również dyski SSD (flash), które nie są przypisane do danego urządzenia. Mowa tutaj między innymi o pendrive na USB – choć mało kto zdaje sobie z tego sprawę, to także jest pamięć masowa, zupełnie tak jak dysk HDD z komputerów. Informacje zapisane na tych rodzajach dysków są trwałe, w związku z czym takie przechowywanie danych jest niezwykle skuteczne. Serwery pamięci masowej i metody przechowywania danych Pamięć masowa umożliwia trwałe przechowywanie danych i obecnie trudno wyobrazić sobie komputer, który nie dysponowałby dyskiem HDD. Codzienne funkcjonowanie bez dysku SSD również może wydawać się trudne, ponieważ za pomocą swojej wydajności oraz możliwości przechowywania naprawdę dużej liczby gigabajtów danych znacznie ułatwia życie każdemu z nas. Nie można zaprzeczyć, że każdy z nas posiada przynajmniej kilka produktów w dużej mierze ułatwiających posiadanie nawet dużych, największych plików. Rozwiązania dla firmy – dysk storage Choć samodzielna praca w domu lub biurze nie wymaga pokaźnych mocy przerobowych oraz potężnego źródła pamięci masowej, to w przypadku nieco większych projektów zdecydowanie warto zastanowić się nad zaimplementowaniem skutecznego źródła pamięci masowej w firmie. Dysk storage technology to jedno z rozwiązań, które umożliwia niezwykle wygodną, zespołową pracę w przypadku nawet największej firmy. Mówimy tutaj o sposobie przechowywania o znacznie większej pojemności niż w przypadku jakiegokolwiek dysku HDD czy dysku SSD – za pomocą tego oprogramowania można przechowywać naprawdę ogromne ilości danych w bezpieczny sposób. Warto mieć na uwadze, że na rynku dostępne są różne dyski o różnorakim sposobie działania oraz efektywności. Urządzenia pamięci – przechowuj dane na urządzeniach blokowych Podsumowując, pamięć masowa jest obecnie niezwykle istotna w funkcjonowaniu nie tylko prywatnych urządzeń, ale także zespołów komputerów wchodzących w skład obszernego systemu każdej większej firmy. Dlatego nie warto oszczędzać na tym rozwiązaniu i zdecydować się na skuteczny i pojemny sposób przechowywania danych. Pod względem pamięci masowej warte uwagi są przede wszystkim serwery storage, które zapewniają ogromny komfort, skuteczność, a także opłacalność, bowiem jest to niezwykle przystępna inwestycja, która może bardzo szybko się zwrócić. Co to jest Pamięć masowa? Dowiedz się więcej o systemach pamięci masowej Współcześnie pamięcią masową zarządzają specjalistyczne systemy operacyjne. Oczywiście pamięć operacyjną najczęściej wybiera się do takich urządzeń jak laptopy. Jednak to pamięć masową większość użytkowników uważa za niezbędną w ramach przechowywania danych przez długi czas. Obecnie istnieje wiele nowoczesnych rozwiązań w zakresie pamięci masowej software defined storage lub network attached storage. Tym samym w największym skrócie pamięć masowa to pamięć trwała, która umożliwia przechowywanie bardzo dużych danych. Jednak nie pozwala na adresowanie pojedynczych bajtów, a czas jej dostępu przez procesor jest zdecydowanie dłuższy. Warto pamiętać, że podczas wymiany sprzętu, aby zachować dotychczasową pamięć masową, należy ją przenieść na nowe urządzenie. Tu z pomocą przychodzi wiele nowoczesnych rozwiązań dyski SSD oraz systemy pamięci Flash. Dyski SSD Dyski SSD to innowacyjne metody, dzięki którym przechowywane dane są bezpieczne i możliwe do zgrania na dowolnym urządzeniu. Można wgrywać na nie wiele aplikacji, plików, filmów i innych zasobów do ponownego wykorzystania. Tym samym dysk SSD, to: krótki czas dostępu do danych, duża odporność na uszkodzenia mechaniczne, brak ruchomych części. Obecnie dyski SSD to bardzo popularne rozwiązanie, które pozwala na przechowywanie dużych ilości plików w zależności od tego jak duża jest karta pamięci. Współcześnie wykorzystanie dysków przenośnych jest coraz większe, przede wszystkim ze względu na wygodę, a także wydajność, którą oferują w ramach ich użytkowania. System pamięci Flash Systemy pamięci Flash to rodzaj pamięci komputerowej, która w gruncie rzeczy stanowi rozszerzenie konstrukcyjne poprzednich systemów. Warto pamiętać, że dostęp do pamięci Flash wykorzystuje stronicowanie pamięci operacje odczytu tak jak zapisu i kasowania danych. Cechą, która zdecydowanie wyróżnia pamięć Flash, jest szerokie wykorzystanie technologii komórek wielostanowych. Serwis pamięci masowej
Kontrolery / procesory pamięci masowej: zarządzają dyskowymi We / Wy, RAID i buforowaniem (termin „kontroler” lub „procesor” różni się w zależności od dostawcy SAN). Ponownie stosowane są kontrolery na poziomie przedsiębiorstwa, dzięki czemu mają znacznie lepszą wydajność i niezawodność niż sprzęt klasy konsumenckiej.
Nie taka Chia zielona, jak ją malująOstatnio coraz głośniej o Chia. Nowa kryptowaluta wzbudza olbrzymie zainteresowanie na rynkach azjatyckich, ale też – coraz bardziej – w Europie. Trudno się dziwić, w odróżnieniu od takiego Bitcoina czy Ethereum nie korzysta z olbrzymiej mocy obliczeniowej ultrawydajnych kart opiera się na technice Proof of Space & Time, więc dla niej hardware’owo najważniejsze są pojemne dyski SSD i HDD. Co za tym idzie, do kopania kryptowaluty potrzeba znacznie mniej energii elektrycznej niż w przypadku wspomnianych już BTC i ETH. Stąd do Chia szybko przylgnęła łatka „ekologicznej” lub „zielonej” na temat Chia przeczytasz w tekście:Chia – nowa kryptowaluta, stare problemy. Tym razem na rynku może zabraknąć dysków SSD i HDDNiedługo musieliśmy czekać na informacje o tym, że wcale tak ekologicznie z Chia nie jest. Kryptowaluta bowiem powoduje liczne awarie dysków, szczególnie SSD, które kiepsko reagują na obciążenia związane z „kopaniem”. Dyski padają jak muchyO problemach poinformował chiński serwis technologiczny MyDrivers. Z przygotowanego przezeń raportu możemy dowiedzieć się, że standardowe dyski SSD o pojemności 256 GB wytrzymują z trudem 40 dni. Analogicznie, w przypadku nośników 512 GB, jest to około 80 dni, a terabajtowe dyski padają średnio co 160 zauważyć korelację między pojemnością nośnika, a jego żywotnością w kontekście wydobywania Chia. Pokrywa się to z faktem, iż w „kopaniu” kryptowaluty większe znaczenie ma miejsce na dysku, a nie jego wydajność. Stąd też renesans popularności, tańszych jak dotąd, dysków HDD, których, tak jak SSD, już zaczyna brakować. Czy to koniec Chia?Raczej koniec swobody konsumenckiej w wyborze dysków. Niedobory pamięci masowej są już odczuwalne na rynku europejskim, szczególnie gdy mowa o nośnikach o pojemności 4 TB i większych. Biorąc pod uwagę utrzymujące się problemy z dostępnością kart graficznych, które skupują górnicy innych kryptowalut, niedługo złożenie wydajnego desktopa może stanowić wyzwanie rzędu „mission impossible”. O ile już nie Phison – firma produkująca kontrolery SSD dla niektórych z dzisiejszych najszybszych dysków SSD PCIe – prognozuje, że w najbliższych tygodniach doświadczymy 10-procentowego wzrostu cen na urządzenia pamięci masowej. Nie to jednak stanowi największy problem, ale fakt, że zapasy produktów są bardzo ograniczone, a górnicy nie zwalniają tempa. Co ciekawe, sytuacja dotknie też rynek konsol; kontrolery SSD od firmy Phison znajdują się bowiem w Xboksach serii X i Phison, KS Pua, sugeruje, że obecna sytuacja na świecie, związana z pandemią COVID-19 i niedoborem chipów, spowoduje ograniczoną podaż kontrolerów SSD przez cały 2022 rok, a może nawet kryptowalutowego szaleństwa nie widać…Źródła: techpowerup, materiały własne
File Allocation Table (FAT) – system plików powstały pod koniec lat 70. Zastosowany w systemach operacyjnych, m.in. DOS i Windows . Określa on rozmieszczenie plików, katalogów i wolnej przestrzeni na nośnikach danych: dyskietkach, dyskach twardych i pendrive'ach. Najważniejszym elementem systemu jest tablica informująca o
LaCie Little Big Disk: pierwszy zewnętrzny dysk ze złączem Thunderbolt. Prawie rok po premierze cudownego złącza Apple’a Thunderbolt (alias Lightpeak) urządzeń w nie wyposażonych wciąż jest niewiele. Chociaż teoretycznie jest ono dwa razy szybsze od popularnego obecnie USB jednak bardzo niewielu producentów zdecydowało się dotychczas na jego implementację. Nic dziwnego, bo port Thunderbolt mają jak na razie tylko aktualne komputery Apple’a jak na przykład MacBook Pro i Air czy też iMac. LaCie, wypuszczając Little Big Disk, robi w tej dziedzinie krok do przodu. Ten zewnętrzny dysk jest dostępny w dwóch wersjach HDD – z pojemnościami 1 i 2 TB – oraz w przetestowanym przez nas wariancie SSD o pojemności 240 GB, który składa się z dwóch napędów Intel SSD 510 (SSDSA2CW120G3) połączonych w macierzy RAID 0. Jego cena, wynosząca około 3500 zł, nie stanowi powodu do dumy. Dodatkowe 200 zł trzeba wyłożyć na kabel Thunderbolt. Kompaktowy, ale głośny We wszystkich trzech wersjach urządzenia Little Big Disk firma LaCie wykorzystała tą samą obudowę ze żłobkowanego aluminium, posiadającą wbudowany wentylator. Ma to uzasadnienie, ponieważ obudowa służy za pasywny radiator a sam wentylator wytwarza dodatkowy pęd powietrza. SSD-eki nie potrzebują aktywnego chłodzenia, a tutaj aktywny jest szybko wirujący wiatrak, co jest zwyczajnie denerwujące. Ponieważ urządzenia Thunderbolt są zawsze połączone szeregowo, Little Big Disk posiada dwa porty Thunderbolt oraz zewnętrzny zasilacz. LaCie Little Big Disk: po jednym porcie Thunderbolt – do połączenia z Mac-iem oraz dalszej komunikacji z następnym urządzeniem. Tak testowaliśmy Jako urządzenia docelowego użyliśmy do testu 13,3-calowego MacBook-a Air z procesorem Core i7-2677M, pamięcią operacyjną o pojemości 4 GB oraz dyskiem SSD o pojemności 256 GB. Podłączyliśmy do niego testowane urządzenie i zanotowaliśmy 530 MB/s podczas odczytu i 265 MB/s podczas zapisu przy użyciu przewodu Thunderbolt – to bardzo szybko. Ponieważ z technicznego punktu widzenia jest to ciekawostka, nie umieszczamy wersji SSD dysku LaCie Little Big Disk w rankingu z normalnymi, zewnętrznymi dyskami 3,5 cala, jednak porównanie wyników pomiarów pokazuje, że jest on znacznie szybszy niż wszystkie dotychczasowe dyski twarde wyposażone w złącza USB oraz eSATA. W porównaniu z jak na razie jedyną alternatywną pamięcią masową z portem Thunderbolt – Promise Pegasus R6 – sprawa wygląda jednak już inaczej. Bez względu na to, czy jest to odczyt czy zapis, czy są to dyski twarde, czy SSD-eki, macierz RAID Pegasus R6 bije LaCie Little Big Disk pod każdym względem. Jest on jednak znacząco droższy (od 4500 zł). Porównanie wyników pomiarów Model Odczyt Zapis LaCie Little Big Disk (2 x SSD) 530 MB/s 265 MB/s Promise Pegasus R6 (6 x HDD) 745 MB/s 745 MB/s Promise Pegasus R6 (4 x SSD) 569 MB/s 746 MB/s Promise Pegasus R6 (2 x SSD) 799 MB/s 751 MB/s Podsumowanie Lacie Little Big Disk jest bardzo szybką i drogą ciekawostką wśród napędów. Kto szuka dysku dla portu Thunderbolt, nie przejdzie koło niego obojętnie. Nie, ponieważ jest on wyjątkowo dobry, ale dlatego, że jak na razie po prostu nie ma innych dysków ze złączem Thunderbolt. Do tego trzeba znosić niepotrzebny hałas. Radzimy Wam ostatecznie jeszcze się wstrzymać, aż na rynku pojawią się konkurencyjne modele ze złączem Thunderbolt. Alternatywa Jako że port Thunderbolt jest dostępny na razie tylko w środowisku Apple i oprócz LaCie Little Big Disk nie ma jeszcze innych napędów z Thunderbolt-em, prawdziwej alternatywy nie ma. Najlepszym zewnętrznym dyskiem dla Mac-ów byłby oferujący szybkie transfery Seagate FreeAgent GoFlex Desk STAC3000201 3TB. Podłączony do FireWire 800 osiąga w naszych testach ponad 100 MB/s, oferuje 3 TB pamięci masowej, ma wymienny interfejs (zapowiedziano również Thunderbolt) i sprzedawany jest od 1300 zł. LaCie Little Big Disk Bardzo szybki, drogi i głośny dysk zewnętrzny ze złączem Thunderbolt. PLUSY: Bardzo szybki Wysokiej jakości aluminiowa obudowa MINUSY: Tylko dla złącza Thunderbolt Głośny wentylator Brak w ofercie kabla Thunderbolt Cena: 3500 zł Powiązane treści: Dyska zewnętrzny 500GB – jaki wybrać?
Urządzenia pamięci masowej z roku na rok mają coraz mniejsze i większe pojemności, a nic nie świadczy o tym bardziej niż Kingston DataTraveler Max linia dysków flash USB-C. Dyski są dostępne w pojemnościach 256 GB, 512 GB i 1 TB, z imponująco wysokimi prędkościami, przy prędkości odczytu 1000 MB/s i prędkości zapisu 900 MB/s. Te […]
Dysk SSD czy eMMC? Opisujemy różnice między nośnikami. Doradzamy, które rozwiązanie lepiej się sprawdzi w laptopie. Producenci komputerów coraz bardziej odchodzą od tradycyjnych dysków twardych HDD, a coraz częściej stosują nowszą pamięć flash – czy to w postaci nośnika SSD czy też pamięci eMMC. Czym różnią się obydwa rozwiązania?Czym różni się dysk SSD od eMMC?W odróżnieniu od tradycyjnych dysków twardych, obydwa nośniki bazują na pamięci półprzewodnikowej. Mamy tutaj do czynienia z pamięcią NAND, gdzie dane są przechowywane w tzw. komórkach pamięci. Możemy więc liczyć na wyższą wydajność (szczególnie przy operacjach na małych plikach), a przy tym większą odporność na uszkodzenia mechaniczne oraz całkowicie bezgłośną eMMC ma postać układu lutowanego bezpośrednio na płytce drukowanej (bez możliwości wymiany)Różnice między eMMC i SSD sprowadzają się do budowy nośnika. W pierwszym przypadku mamy do czynienia z układem montowanym bezpośrednio na płytce drukowanej, w którym od razu zintegrowano pamięć flash i kontroler pamięci. Budowa dysku SSD jest bardziej skomplikowana – producenci stosują tutaj kilka układów pamięci i zewnętrzny kontroler, a całość ma postać nośnika podłączanego do złącza SATA, SATA lub eMMC vs SSD eMMC vs SSD - porównanie wydajności pamięci eMMC (po lewej) i dysku SSD (po prawej)Z uwagi na różnice w budowie, nośniki oferują inne parametry. Pamięć eMMC ma pojemność maksymalnie 128 GB (zwykle jest to 32 lub 64 GB), a oferowane transfery zwykle sięgają około 150/100 MB/s odpowiednio dla odczytu i zapisu oferują dużo lepsze parametry, bo ich pojemność wynosi nawet 2 TB w przypadku nośników i 4 TB w przypadku dysków SATA. Wydajność też jest dużo lepsza, bo w przypadku modeli z interfejsem SATA może sięgać 550/500 MB/s, a w przypadku topowych konstrukcji pod PCIe jest to nawet 3500/2500 MB/ z SSD i laptop z eMMCObydwa rozwiązania sprawdzą się w różnych scenariuszach. Pamięć eMMC zwykle znajdziemy w tańszych laptopach, które zostały zaprojektowane z myślą o codziennych zastosowaniach. Użytkownicy nie powinni tutaj aż tak odczuwać mniejszej pojemności i słabszych osiągów nośnika. W niektórych konstrukcjach można jednak dołożyć tradycyjny dysk SSD (dobrym przykładem jest model Kiano Elegance SSD możemy wymienić na szybszy i/lub pojemniejszy modelDysk SSD do bardziej uniwersalne rozwiązanie, które można spotkać w najróżniejszych konstrukcjach - począwszy od podstawowych laptopów do domu, przez wydajne modele do grania, a skończywszy na mobilnych stacjach roboczych. Sporym atutem jest tutaj możliwość wymiany nośnika na szybszy i/lub pojemniejszy inf. własna
Na rynku znajdziemy również karty SD, które wyposażono w interfejs USB, dzięki czemu do zgrywania danych na komputer niepotrzebny jest czytnik. Karty CompactFlash to największe nośniki pamięci stosowane w aparatach cyfrowych. Mają wymiary 36,4 x 42,8 x 3,3 mm i dziś są wykorzystywane przede wszystkim w profesjonalnych lustrzankach.
Przenośne urządzenia pamięci masowej (Portable Storage Devices – PSD) od dawna stanowią integralną część naszego codziennego życia w coraz bardziej cyfrowym świecie. Przenośna pamięć to między innymi pendrive’y USB, karty pamięci czy dyski zewnętrzne. Nie ogranicza się ona jednak tylko do tych znanych technologii. W tym wpisie przyjrzymy się różnorodnym typom urządzeń pamięci masowej, omówimy ich plusy i minusy, i pomożemy Ci określić, co najlepiej spełni Twoje oczekiwania. Czym są przenośne urządzenia pamięci masowej? Najprościej możemy je zdefiniować jako wysuwane lub przenośne urządzenia zdolne przechowywać i przesyłać dane cyfrowe. W tym sensie smartfony i laptopy można również uznać za przykłady przenośnych urządzeń pamięci masowej. Starsze typy urządzeń pamięci masowej obejmowały na przykład dyskietki, których już się nie używa, albo płyty CD-ROM. Współcześnie najpopularniejsze wydają się różnego typu urządzenia pamięci na USB, czyli pendrive’y, oraz karty pamięci różnorodnych formatów. Przechowywanie danych zmierza powoli acz zdecydowanie w stronę przechowywania w chmurze, bezpiecznego zapisywania wszelkich rodzajów danych cyfrowych, do których mamy zapewniony prosty dostęp poprzez sieć internetową. Z drugiej strony fizyczne formy przenośnej pamięci na pewno jeszcze długo pozostaną w użyciu, choćby ze względu na zapotrzebowanie na nie w szkołach i biurach. Typy przenośnych urządzeń pamięci masowej Istnieje dość szeroki wybór różnych urządzeń pamięci masowej. Niektóre przeszły już do lamusa, a inne mogą nie być popularnym wyborem wśród zwykłych użytkowników. Ale poniżej przedstawiamy takie typy przenośnych urządzeń pamięci masowej, które są łatwo dostępne na rynku i wyjątkowo powszechne w użyciu. Pendrive’y USB Pamięci USB, czyli popularne pendrive’y, to zdecydowanie najczęstszy wybór, jeśli chodzi o przenośne urządzenia pamięci masowej. Pamięć USB flash zazwyczaj składa się z czterech stałych elementów. Złącze ze standardowym wtykiem USB umożliwia podłączenie do portu urządzenia hosta, na przykład komputera czy tabletu. Pendrive najczęściej posiada wtyczkę USB-A, choć wraz z rosnącą popularnością szybszego standardu USB – USB – obserwuje się coraz powszechniejsze pojawianie się wtyków i portów typu USB-C. Wewnątrz obudowy pendrive’a znajdują się: kontroler pamięci masowej USB, układ pamięci flash NAND i oscylator kwarcowy. Kontroler pamięci masowej to rodzaj mikrokontrolera z niewielką ilością RAM (Random Access Memory – pamięć o dostępie swobodnym) i ROM (Read-Only Memory – pamięć tylko do odczytu), co zapewnia prawidłowe protokoły komunikacji pomiędzy podłączonymi urządzeniami. Układ pamięci flash NAND wykorzystuje nieulotną technologię przechowywania, która zachowuje wszystkie dane cyfrowe przesyłane na pendrive. Pojemność pamięci pendrive’a zależy od wydajności tego układu. Przepływem danych i wyjściem danych z pamięci USB zarządza oscylator kwarcowy. Więcej o przenośnej pamięci USB dowiesz się z naszego Przewodnika kupującego pendrive’y USB. Zalety: Napędy pamięci USB są praktyczne, lekkie i wygodne. Mają kompaktowe kształty i łatwo mieszczą się w urządzenia typu Plug-and-Play, co oznacza, że nie potrzebujesz instalować jakiegokolwiek oprogramowania czy polegać na innych odczytasz i zapiszesz dane na dysku USB w dowolnym są kompatybilne z szeroką gamą urządzeń posiadających kompatybilny port USB. Na rynku dostępne są także pendrive’y z wtykiem USB-C a nawet kwestii ceny te przenośne pamięci wypadają wyjątkowo są w różnorodnych pojemnościach, z których największe sięgają aż 2 wysoką prędkość przesyłania, zwłaszcza w przypadku najnowszych standardów USB i po podłączeniu do kompatybilnego portu w tym samym stosunkowo trwałe, niezawodne i wytrzymałe po części z uwagi na fakt, że nie mają ruchomych trudu wyszukasz pendrive’y oferujące funkcje szyfrowania i innych zabezpieczeń danych, np. modele wyposażone w skaner linii papilarnych. Wady: Miniaturowe rozmiary mogą także ułatwiać zgubienie czy zawieruszenie USB pendrive’a jest narażony na zużycie i uszkodzenie, o ile nie jest odpowiednio uwagi na częste używanie z różnymi systemami, pendrive’y mogą być podatne na ryzyko uszkodzenia danych – o ile nie podejmie się odpowiednich środków przypadku użytkowników często odczytujących i zapisujących dane ograniczona żywotność/liczba cykli zapisu pendrive’a może stanowić potencjalną wadę. Zajrzyj do naszego wpisu “Rozwiązywanie problemów z pamięcią flash USB / pendrive’m”, gdzie dowiesz się, jak poradzić sobie z najczęstszymi problemami. Karty pamięci Karty pamięci: karty microSD, SDXC czy karty Compact Flash, to kolejny ciekawy nośnik pamięci. Często spotykamy je w urządzeniach przenośnych, takich jak smartfony czy tablety albo konsole do gier, na przykład Nintendo Switch, gdzie umożliwiają poszerzenie pamięci. Przede wszystkim te nośniki trwałej pamięci masowej sprawdzają się w aparatach cyfrowych, lustrzankach cyfrowych i urządzeniach GoPro. Spora pojemność kart pamięci umożliwia zwiększenie pamięci urządzenia o nawet 128 TB. Kupując je, warto także zwrócić uwagę na różne prędkości przesyłu, które mają istotne znaczenie w przypadku plików obrazu i wideo. O kartach pamięci dowiesz się więcej, czytając nasz przewodnik kupującego karty pamięci. Zalety: Niewielkie rozmiary i kompaktowy kształt kart pamięci pozwala superłatwo zabierać je wszędzie ze są to nośniki półprzewodnikowe, nie ma ryzyka problemów mechanicznych lub mają bardzo dużą pojemność względem swoich rozmiarów sprawdzają się jako rozszerzenie pamięci urządzenia oraz potencjalnie mogą być używane w smartfonach jako rozszerzona pamięć typów urządzeń korzysta z kart pamięci – karty są kompatybilne z szerokim wachlarzem sprzętów kart pamięci posiada blokadę zapisu, która chroni przechowywane dane przed nadpisaniem. Wady: Lekkość i małe wymiary przekładają się także niestety na łatwość zgubienia czy o ich uszkodzenie na skutek działania czynników zewnętrznych, takich jak woda, wysoka temperatura i siła podłączenia do niektórych urządzeń może być potrzebny czytnik kart mogą być podatne na uszkodzenie danych elektronicznych, jeśli nie zostaną odpowiednio mają ograniczoną żywotność i nie sprawdzą się idealnie w rozbudowanych zadaniach odczytu/ zapewniają niższą prędkość przesyłu względem wewnętrznej pamięci urządzenia. Najczęstsze problemy z kartami rozwiążesz, zaglądając do naszego wpisu pod tytułem “Problemy z kartami pamięci: Jak naprawić kartę pamięci”. Zewnętrzne dyski twarde Przenośne dyski twarde (HDD) to nadal najlepszy sposób przechowywania danych w dużych pakietach. Stanowią też popularny wybór, jeśli chodzi o poszerzanie pamięci komputera czy laptopa. W odróżnieniu od nośników wymienionych w poprzednich częściach tego wpisu, zewnętrzne dyski twarde są oparte na technologii zapisu magnetycznego i składają się z ruchomych części. Wymagają również zewnętrznego źródła zasilania i kabli do połączenia z komputerem osobistym lub innymi systemami informacyjnymi. Zewnętrzne dyski twarde składają się z czterech głównych elementów, które obejmują talerz do przechowywania danych, wrzeciono obracające talerze, ramię odczytu/zapisu odpowiedzialne za odczyt i zapis danych oraz siłownik do sterowania działaniami ramienia odczytu/zapisu. Prędkość obrotowa dysku (RPM), podawana w obrotach na minutę, określa, jak szybko można odczytywać lub przechowywać dane na zewnętrznym dysku twardym. Zalety: Kompaktowe wymiary i duża pojemność pamięci, nawet do 8 choć najczęściej dużo większe i cięższe niż pendrive’y USB i karty porównaniu do dysków SSD są tańsze i oferują większą pojemność pamięci HDD wielu marek wyposaża się w protokoły bezpieczeństwa, które chronią przed utratą i uszkodzeniem dyski twarde mogą mieć także funkcje szyfrowania dyski mają też opcję ładowania przez kabel USB i łączność Wi-Fi. Wady: Z uwagi na ruchome części, dyski mogą powodować szumy czy wręcz użytkowanie może prowadzić do przegrzania nośnika prędkości odczytu i zapisu niż dyski typu Solid-State je uszkodzić przy uderzeniach czy upadkach, więc wymagają obudowy celu podłączenia do urządzenia zewnętrznego dysk wymaga zasilania i względu na niewielkie wymiary nośnika trzeba liczyć się z ryzykiem jego kradzieży. Zewnętrzne dyski SSD Zewnętrzne dyski SSD od zewnętrznych dysków twardych różnią się wydajnością. Dyski SSD są zdecydowanie szybsze niż zewnętrzne dyski twarde, ale są drogie i oferują mniejszą pojemność pamięci masowej w tej samej cenie. Te nieulotne pamięci nie składają się z żadnych ruchomych części, a zamiast tego mają małe tranzystory bramkowe sterowane impulsami elektrycznymi. Procesy odczytu/zapisu są zarządzane przez wbudowane procesory podobne do tych w pamięciach USB. Zalety: Większa szybkość transferu niż w zewnętrznych dyskach twardych względu na brak elementów mechanicznych są bardziej kompaktowe i wytrzymałe niż dyski zewnętrzne SSD nie generują szumów podczas bardziej odporne na przegrzewają się w takim stopniu jak dyski mniej prądu niż zewnętrzne dyski SSD wyposaża się w zabezpieczenia danych podobne do tych stosowanych w dyskach HDD. Wady: Mniejsza pojemność w tej samej cenie w porównaniu z zewnętrznymi dyskami twardymi odpowiednich cenach dostępne są także wyższe przypadku awarii dysku SSD może się okazać, że nie uda się odzyskać danych. Przegląd przenośnych urządzeń do przechowywania danych cyfrowych IW poniższej tabelce znajdziesz krótkie zestawienie informacji na temat zewnętrznych urządzeń pamięci masowej. UrządzeniePojemnośćKosztŁącznośćZaletyZastosowaniekarty pamięcido 128 GB (karty SDUC)dostępne opcje budżetowewymagane kompatybilne gniazdo kart pamięci albo czytnik kart• mały rozmiar• kompatybilnośćł• atwość obsługi• ochrona zapisuGłównie fotografia i wideografia. Także do rozszerzania pamięci urządzeń smart – na przykład tabletów i USB do 1 TB (rzadko)dostępne opcje budżetowełączność plug-and-play z kompatybilnymi portami USB w urządzeniach hostach i urządzeniach OTG (On-the-Go)• małe rozmiary i różnorodność kształtów• świetny gadżet promocyjny• dostępne opcje szyfrowania• funkcja Plug-and-Play • kompatybilnośćPoza codziennym użytkiem, pamięć USB nadaje się do instalacji systemu operacyjnego. Pendrive z szyfrowaniem nadaje się do przechowywania poufnych dysk twardy HDDdostępne pojemności rzędu wielu terabajtówraczej wyższa cena niż pendrive USB czy karta pamięciwymaga zewnętrznego źródła zasilania oraz kabla USB do podłączenia do urządzenia hosta• duża pojemność• wygoda transportu• idealny do kopii zapasowych i dużych ilości danych• dostępne opcje szyfrowania sprzętowego i programowegoIdealny do przechowywania danych w środowisku biznesowym. Oferuje ogromną pojemność w swojej cenie. Doskonałe rozwiązanie dla fotografów i dysk SSDdostępne pojemności rzędu wielu terabajtówdroższy niż przenośny dysk HDDwymaga kabla USB do zasilania i przesyłania danych• wysoka prędkość transferu• kompaktowa forma• cicha praca• trwałośćIdealny do bezpiecznego przechowywania danych. Świetny w przypadku konsoli do gier z uwagi na szybką reakcję. Jakie są wiodące marki producentów nośników pamięci? Chociaż dostępnych jest wiele przenośnych urządzeń pamięci masowej, które pasują do różnych budżetów, kupowanie od renomowanej marki to gwarancja niezawodności i wydajności produktu. Poniżej przedstawiamy listę zaledwie kilku z popularnych marek na rynku urządzeń pamięci masowej. SanDiskToshibaSamsungKingstonTranscendWestern DigitalLexarPanasonic Jak zminimalizować ryzyka związane z korzystaniem z urządzeń pamięci masowej? Wygoda korzystania z przenośnych urządzeń pamięci masowej czyni je idealnym sposobem przenoszenia i udostępniania danych. Ponieważ urządzenia te są często używane z różnymi systemami informatycznymi i urządzeniami hosta, zawsze istnieje ryzyko uszkodzenia danych, kradzieży i innych potencjalnych problemów. Mamy dla Ciebie kilka zaleceń. Stosując się do nich, wydatnie zmniejszysz ryzyko związane z używaniem wszelkiego typu nośników pamięci masowej: Ogranicz korzystanie z nośników pamięci masowej czy zewnętrznych systemów, które nie są Ci dobrze pracy z własnymi urządzeniami i systemami polegaj wyłącznie na zaufanych urządzeniach pamięci funkcje automatycznego uruchamiania i automatycznego odtwarzania dla urządzeń korzystaj z oprogramowania antywirusowego i skanuj urządzenia pamięci masowej przed ich z funkcji zabezpieczenia hasłem lub innych form szyfrowania i zabezpieczenia przechowuj nośniki pamięci. Unikaj wystawiania ich na działanie skrajnych temperatur, wody i siły nie przechowuj danych służbowych i osobistych na tym samym nośniku pamięci. Dane w ruchu Teraz, gdy już wiesz, czym jest nośnik danych w formie karty SD, dowiedziałeś się więcej o zewnętrznych dyskach twardych i przekonałeś się, dlaczego pendrive’y stanowią idealne rozwiązanie do codziennego użytku, używaj przenośnych urządzeń pamięci masowej do wielu nowych, ekscytujących zadań. Znając zalety i wady przenośnych urządzeń pamięci masowej, jesteś w stanie mądrze zdecydować, jakiego gadżetu potrzebujesz do swojego laptopa i innych sprzętów. Szukasz najlepszego nośnika pamięci masowej na swoją kieszeń? Potrzebujesz nośników pamięci o wysokiej prędkości przesyłu danych do swojego komputera? Czegokolwiek poszukujesz, pomożemy Ci znaleźć coś w sam raz dla Ciebie. Zapraszamy do kontaktu. Z nami odkryjesz szeroki asortyment przenośnych urządzeń pamięci masowej oraz innych praktycznych gadżetów i dodatków!
Brainly napisz kod programu w języku c++ (od deklaracji zmiennych z instrukcją for) który na tablicy jednowymiarowej o rozmiarze 10 wykona następujące zadania: 1.
Rynek macierzy dyskowych jest mocno rozedrgany. I nic nie wskazuje na to, że w najbliższym czasie sytuacja się ustabilizuje. Wydawałoby się, że cyfrowa transformacja powinna być motorem napędowym dla dostawców systemów pamięci masowych. Tak się jednak nie dzieje. Według IDC, w pierwszym kwartale bieżącego roku globalne przychody ze sprzedaży macierzy dyskowych wyniosły 6,7 mld dol., co oznacza tylko niemal dwuprocentowy wzrost rok do roku – pierwszy po czterech kwartałach, w których producenci odnotowywali spadki sprzedaży. Nadal nie udało się powrócić do poziomu z pierwszego kwartału 2019 r., kiedy sprzedaż wyniosła 6,85 mld dol. Na uwagę zasługuje fakt, że w tym samym czasie światowy rynek serwerów w ujęciu wartościowym wzrósł o 12 proc. Wprawdzie do kas producentów macierzy dyskowych wpływa mniej pieniędzy niż przed pandemią, ale pojemność dostarczanych przez nich pamięci masowych cały czas rośnie. W pierwszym kwartale 2021 r. sprzedano 19,9 eksabajtów przestrzeni dyskowej, czyli 16 proc. więcej niż w analogicznym okresie ubiegłego roku. Lawinowy przyrost danych sprawia, że producenci wprowadzają do swoich rozwiązań wiele nowinek technicznych i stosują nowe modele sprzedaży. Poza tym, zmieniają się zwyczaje zakupowe przedsiębiorstw. Urządzenia stają się coraz bardziej inteligentne, dzięki czemu pomagają użytkownikom efektywniej przechowywać i udostępniać cyfrowe zasoby. Również klienci dokonują racjonalnych wyborów i przestają niepotrzebnie wydawać pieniądze na nadmiarową przestrzeń dyskową. Dlatego też w nadchodzących kwartałach dostawcy macierzy SAN powinni zadowolić się niewielkimi, jednocyfrowymi wzrostami przychodów. Natomiast na nieco więcej mogą liczyć producenci NAS-ów. Systemy all-flash tracą impet Systemy all-flash w ostatnich latach pięły się do góry w rankingach sprzedaży macierzy dyskowych. Jednak w pierwszym kwartale bieżącego roku przychody z ich sprzedaży na świecie wyniosły blisko 2,7 mld dol., co oznacza spadek o 3 proc. w ujęciu rocznym. Dla porównania, obroty w segmencie macierzy hybrydowych w tym samym okresie wzrosły o 1,4 proc. Taki stan rzeczy nie jest dziełem przypadku. – Już od wielu kwartałów w Polsce utrzymuje się stabilna proporcja między sprzedażą macierzy all-flash i hybrydowych – tłumaczy Piotr Drąg, Storage Category Manager for Poland w HPE. – Udział rozwiązań wyłącznie z dyskami SSD oscyluje wokół 35 proc. Fakt, że się nie zwiększa jest związany ze skokiem cen nośników flash oraz problemami z dostawami komponentów. Zamieszanie na rynku nośników danych wywołała chińska kryptowaluta Chia, której przetwarzanie bazuje na modelu „dowodu przestrzeni i czasu” (proof of space and time). Do jego implementacji potrzebne są szybkie dyski, a nie karty graficzne, jak ma to miejsce w przypadku Bitcoina i innych popularnych cyfrowych pieniędzy. W początkowej fazie „górnicy” sięgali po pamięci flash, ale niektóre nośniki zużywały się już po miesiącu eksploatacji. Dlatego też przestawili się na dyski twarde. Jak wynika z danych Contextu, w drugim kwartale br. na rynku europejskim sprzedano 454 tys. nośników HDD, co oznacza wzrost o 141 proc. rok do roku. Najszybciej znikały z magazynów modele nearline o pojemności 18 TB. W badanym okresie dostawcy upłynnili 84 tys. tych napędów, co znacznie przewyższyło sprzedaż drugiego w rankingu modelu 16 TB (51 tys.). Na fali wznoszącej znalazły się też dyski SSD, na czele z NVMe Gen4 1 TB. Sprzedaż wolumenowa tych nośników osiągnęła blisko 75 tys. sztuk, co oznacza wzrost o 1147 proc. rok do roku. Napędzany przez Chia boom na pamięci masowe to przysłowiowa woda na młyn dla producentów dysków talerzowych, którzy już od lat narzekali na postępujące spadki sprzedaży. WD oraz Seagate muszą jednak stawać na głowie, aby sprostać realizacji zamówień, co spowodowane jest niedoborem komponentów. Trudno przewidzieć, jak potoczą się dalsze losy tej kryptowaluty. Jak na razie jej kurs ostro pikuje – w maju br. osiągnął poziom 1685 dol., podczas gdy pod koniec sierpnia jedynie 240 dol. Niespotykany wcześniej popyt, a także ciągnące się od ponad roku kłopoty związane z dostawami podzespołów, windują ceny nośników w górę. Badacze z TrendForce prognozują, że ceny kontraktowe dysków SSD dla przedsiębiorstw w trzecim kwartale br. wzrosną o 15 proc. wobec drugiego kwartału. Na zawirowaniach w segmencie dysków mogą zyskać taśmy. IBM szacuje, że obecnie w taśmowych systemach pamięci znajduje się ponad 345 tys. EB danych. – Technologia zapisu taśmowego stale jest rozwijana, dzięki czemu nośniki stają się coraz szybsze i pojemniejsze. Dlatego, niezależnie od rozwoju macierzy all-flash, jeszcze przez wiele lat będą znajdo-wały swoich zwolenników – zauważa Łukasz Winiarski, Storage Sales Expert w polskim oddziale IBM-u. Taśmy zgodne z najnowszym standardem LTO-9 mają 18 TB pojemności bez kompresji (do 45 TB z kompresją) i zapewniają transfer skompresowanych danych z prędkością do 1800 MB/s. Niezaprzeczalnym atutem taśm jest trwałość szacowana na około 30 lat. W przypadku nośników flash wynosi ona od kilkuset do kilkudziesięciu tysięcy operacji zapisu w każdej z komórek pamięci. Istnieje też błędne przekonanie, że teoretycznie napędy HDD mogą działać wiecznie, jednak w ich przypadku w grę wchodzą aspekty mechaniczne, które powodują, że w zależności od intensywności eksploatacji zawodzą po kilku latach użytkowania. Zdaniem Mirosława Chełmeckiego, dyrektora działu pamięci masowych i serwerów w Veracomp – Exclusive Networks, drugie życiem napędom i bibliotekom taśmowym zapewnia ransomware. Odpowiednio zaplanowana strategia backupu, z uwzględnieniem wykonywania kopii na taśmy, stanowi bowiem najskuteczniejszą broń przeciw skutkom tych ataków. Zdaniem specjalisty Marek Lesiak, Product Manager HPE, Veracomp – Exclusive NetworksNiestety, kłopoty z dostawami nie omijają również branży IT. Wciąż nie do końca zostały odbudowane łańcuchy dostaw przerwane w wyniku przestojów związanych z pandemią COVID-19. Sytuacja w branży informatycznej wydaje się być podobna do sektora motoryzacyjnego, w którym opóźnienia wynikają przede wszystkim z problemów z dostępnością półprzewodników. W przypadku pamięci masowych obecnie nie są to duże opóźnienia, czas realizacji dostaw na macierze wydłużył się ze standardowych 2–3 do około 4–5 tygodni. Tym, co może niepokoić, są spodziewane w najbliższym czasie kłopoty z dostawami dysków twardych. Wojciech Wolas, Storage, Platforms and Solutions Sales Manager, Dell TechnologiesMacierze dyskowe na polskim rynku cieszą się dużą popularnością. Dynamika sprzedaży rozwiązań NAS przewyższa dynamikę sprzedaży rozwiązań SAN, przy czym te ostatnie nadal mają zdecydowanie większy udział wartościowy na rynku macierzy. Wzrost pojemności dysków SSD i spadek kosztów za 1 TB przestrzeni, prowadzi do tego, że macierze all-flash i hybrydowe wypierają rozwiązania bazujące wyłącznie na dyskach obrotowych. Najczęściej dotyczy to projektów związanych z obsługą aplikacji i baz danych. Za wyborem pamięci NAND flash przemawia lepsza wydajność, krótsze czasy odpowiedzi, oszczędność miejsca oraz niższe zużycie energii. Marcin Lisowski, Key Account Manager Poland, SynologyPierwsze półrocze pokazuje, że popyt na rozwiązania NAS w Polsce jest bardzo wysoki. Największą popularnością cieszą się systemy adresowane dla MŚP, a następnie klasy enterprise. W przypadku produktów z przedziału cenowego, w którym znajdują się nasze produkty, sprzedaż nośników HDD przeważa nad SSD. Wynika to z faktu, że większość naszych urządzeń służy do przechowywania dużej ilości danych. Nośniki SSD wykorzystywane są głównie jako cache, ale także sprzedawane są z naszymi macierzami all-flash. Realizujemy coraz więcej tego typu projektów, ale nie na tyle dużo, żeby mówić o równowadze między sprzedawanymi dyskami talerzowymi i NAND flash. Macierze all-flash: śrubowanie parametrów Konstruktorzy pamięci NAND wykorzystywanych w dyskach SSD starają się „upchnąć” jak najwięcej bitów w komórce pamięci. Takie działania z jednej strony umożliwiają obniżenie cen nośników, ale wpływają na zmniejszenie ich trwałości. SLC to komórki przechowujące tylko jeden bit, które cechują się najdłuższą żywotnością 100 tys. cykli zapisów. Jednak ze względu na wysoką cenę praktycznie nie znajdują zastosowania w macierzach dyskowych. Natomiast producenci bardzo chętnie wykorzystują nośniki wykonane w technice MLC (2 bity na komórkę, trwałość 10 – 35 tys. zapisów) oraz TLC (3 bity na komórkę, trwałość 1–3 tys. zapisów). W komputerach osobistych, w przypadku których cena ma duże znaczenie, coraz częściej wykorzystywane są też nośniki QLC (4 bity na komórkę, trwałość 1 tys. zapisów), a coraz głośniej mówi się też o pamięciach PLC z 5 bitami na komórkę. Jednak, ze względu na tak niewielką trwałość, raczej nie są one rozważane do wykorzystania w profesjonalnych systemach pamięci masowych, w których bezpieczeństwo danych jest ważniejsze niż cena. Co ciekawe, niektórzy podejmują jednak ryzyko. Amerykański startup Vast Data stosuje w macierzach nośniki QLC i udziela na nie 10-letniej gwarancji. Jeff Denworth, CMO Vast Data, tłumaczy, że wydłużenie żywotności nośników było możliwe dzięki zastosowaniu mechanizmów redukcji danych oraz zabezpieczeń Erasure Coding. Nieco inaczej na kwestie związane z upychaniem bitów w komórkach pamięci NAND flash patrzy Wojciech Wolas, Storage, Platforms and Solutions Sales Manager w Dell Technologies. Jego zdaniem oszczędności należy szukać gdzie indziej, a optymalną metodą jest skorzystanie z kompresji oraz deduplikacji. Oba mechanizmy pozwalają obniżyć koszty funkcjonowania macierzy bez rezygnacji z bardziej trwałych dysków SSD. Coraz częściej liczący się producenci macierzy stosują w nich nośniki zgodne z protokołem NVMe. Standard ten pozwala na podłączenie dysków flash bezpośrednio do magistrali PCIe. NVMe góruje pod każdym względem nad protokołami SATA oraz SAS, które opracowano z myślą o szeregowo przesyłanych danych w dyskach mechanicznych. Dla porównania, kolejka SATA może zawierać do 32 oczekujących poleceń, zaś SAS do 256. Z kolei NVMe obsługuje do 65 535 kolejek, a także 64 tys. poleceń na kolejkę. Dzięki temu macierze z dyskami NVMe mogą osiągać wydajność na poziomie ponad dziesięciu milionów IOPS. Kolejnym sposobem na uzyskanie wysokiej wydajności jest zastosowanie stworzonej w firmie Nvidia techniki GPUDirect Storage. Producent w czerwcu poinformował o dostępności sterownika umożliwiającego ominięcie procesora serwera i przesyłanie danych bezpośrednio pomiędzy GPU a pamięcią masową, za pośrednictwem magistrali PCIe. Tak stworzona architektura zapewnia znaczne zwiększenie przepustowości, ogranicza opóźnienia i zdaje egzamin przy obsłudze AI, HPC czy analityki wymagającej dużych ilości danych. Jak na razie jedynymi producentami, którzy integrują pamięć masową z GPUDirect są DataDirect, Vast Data i WekaIO. Niedługo ta opcja pojawi się też w systemach Dell Technologies, HPE, IBM, Hitachi Vantara czy NetApp. Dobre czasy dla systemów NAS O ile w segmencie macierzy SAN najważniejsze trendy rynkowe wyznaczają nośniki flash, o tyle w grupie systemów NAS liczą się zupełnie inne walory. W przypadku przetwarzania i przechowywania plików, obiektów, logów systemowych czy zbiorów big data kluczowa jest pojemność i łatwość skalowania. Ostatnie miesiące przyniosły duże ożywienie na europejskim rynku NAS – według Contextu w drugim kwartale br. miał miejsce wzrost sprzedaży o 73,5 proc. w ujęciu rocznym. – To najlepszy czas dla urządzeń NAS – mówi Łukasz Milic, Business Development Representative w QNAP-ie. – Klienci potrzebują przestrzeni dyskowej, bowiem wszyscy generują ogromne ilości danych. Jednocześnie dyski w komputerach mają ograniczoną pojemność, zwłaszcza, że coraz częściej są to nośniki SSD. Dlatego też pojawia się coraz więcej miejsca dla systemów NAS. Wybór nośników w NAS-ach zależy od rodzaju danych i charakteru ich przechowywania. Dysków mechanicznych najczęściej używa się w urządzeniach przeznaczonych do rejestrowania zapisów z backupu, monitoringu, a także do celów archiwizacji. Część klientów decyduje się na hybrydy, w których w jednym urządzeniu używane są dyski SSD oraz HDD, co zapewnia równowagę pomiędzy wydajnością a pojemnością. Wielu firmom wystarczają serwery czy też macierze udostępniające zasoby dyskowe przez protokoły NFS, SMB/CIFS. Z drugiej strony przyrost danych generuje popyt na systemy scale-out, umożliwiające rozbudowane pojemności i wydajności przez dodawanie kolejnych węzłów do klastra. Ale produkty NAS scale-out czy systemy obiektowej pamięci masowej nie wzbudzają większego zainteresowania wśród integratorów. – W ostatnim czasie poziom wiedzy na temat tej klasy rozwiązań znacząco wzrósł – przekonuje Piotr Drąg z HPE. – Nasi partnerzy dowiadują się o produktach Cohesity, Qumulo, Scality czy iTernity. Jednak na rynku polskim wciąż jesteśmy raczej na początku tej ciekawej drogi. Już za kilka lat 80 procent wszystkich danych będzie przechowywanych właśnie w formie plikowej czy obiektowej. Z inicjatywami wychodzą również producenci NAS-ów. Przykładowo, QNAP wprowadził funkcję obsługi pamięci obiektowej, co pozwala wydzielić część pamięci urządzenia na obiekty. Zdaniem integratora Paweł Bociąga, prezes zarządu, SymmetryBardzo duży przyrost ilości danych sprawia, że mamy do czynienia z ciągłym postępem technologicznym w obszarze macierzy dyskowych. Potencjał oraz „inteligencja” tych urządzeń cały czas wzrasta, co pomaga klientom efektywniej przechowywać i udostępniać dane. Zauważamy wzrost sprzedaży macierzy all-flash. Ich ceny za 1 TB ciągle maleją, a zysk na wydajności jest znacznie większy w porównaniu z dyskami obrotowymi. Natomiast klasyczne systemy NAS nadal są w sprzedaży, ale coraz częściej klienci wybierają systemy obiektowe. Wpływ na tę sytuację ma bardzo duży wzrost wolumenu danych nieustrukturyzowanych. Chmura we własnej serwerowni Subskrypcja na dobre zadomowiła się w świecie nowych technologii. Za modnym trendem próbują podążać producenci pamięci masowych, oferując sprzęt w formie usługi. Macierz znajduje się w serwerowni klienta, dzięki czemu unika on opłat za ruch przychodzący i wychodzący. Usługobiorca opłaca miesięczny abonament, przy czym może zarówno zwiększać, jak i zmniejszać przestrzeń dyskową lub wydajność urządzenia. Tego typu usługi oferują wszyscy liczący się gracze w segmencie pamięci masowych adresowanych dla biznesu – Dell EMC, Fujitsu, Hitachi Vantara, HPE, IBM, NetApp czy Pure Storage. Oferty tych producentów różnią się między sobą detalami. Przykładowo, Dell EMC mierzy zużycie zasobów za pomocą zautomatyzowanych narzędzi zainstalowanych wraz ze sprzętem. Na podstawie tych wyliczeń ustala średnie wartości dzienne, a następnie miesięczne. NetApp oraz HPE dodatkowo udostępniają użytkownikom dostęp do panelu udostępniającego informacje o kosztach, zużyciu zasobów czy wydajności. Z kolei IBM podpisuje umowy jedynie z firmami, które potrzebują przynajmniej 250 TB przestrzeni dyskowej. Polscy integratorzy dość sceptycznie oceniają ten rodzaj sprzedaży. Jacek Marynowski, prezes zarządu Storage IT, podaje ciekawy przykład z rynku oprogramowania do backupu. Choć firma oferuje je w modelu subskrypcyjnym, około 90 proc. klientów płaci za licencje wieczyste. Zdaniem Pawła Bociąga, prezesa zarządu Symmetry, taki model sprawdzi się pod warunkiem, że integrator będzie odpowiedzialny za realizację usług dodanych dla klienta oraz tego czy umowa będzie zawarta na określony czas. Zdaniem specjalisty Roman Lipka, Business Development Manager IBM Hardware, Tech DataRynek pamięci masowych cały czas rośnie, co w dużej mierze jest zasługą spadających cen pamięci flash. W przypadku dużych i średnich firm oraz sektora publicznego dominują zakupy systemów SAN. Klienci coraz częściej preferują nośniki SSD. Dyski mechaniczne są sprzedawane na potrzeby starszych instalacji lub w przypadku, gdy wydajność, a także szybkość zapisu i odczytu danych nie jest dla klienta kluczowa. Biorąc pod uwagę wolumen sprzedawanych pojemności, zdecydowana przewaga leży po stronie NAND flash. Jerzy Adamiak, Storage Systems Consultant, StovarisKlienci szukają przede wszystkim macierzy z dostępem blokowym. Największą popularnością cieszą się rozwiązania z interfejsem 10 GbE (iSCSI) oraz w nieco mniejszym stopniu FC 16 Gb. Trafia do nas sporo zapytań o serwery NAS, ale w ich przypadku głównym kryterium wyboru jest cena. Niestety, problemy związane z dostawami komponentów dotknęły również rynek pamięci masowych. Cena w przypadku niektórych dysków HDD wzrosła o prawie 50 procent. Alternatywą jest oczekiwanie ponad trzy miesiące na tańsze dyski innych producentów. Obie opcje są nie do zaakceptowania przez klientów, szczególnie w przypadku dłużej trwających projektów z wcześniej zatwierdzonymi cenami. Wojciech Wróbel, Business Development Manager Data Protection, Fujitsu Technology SolutionsModuły NVMe już od pewnego czasu są stosowane w macierzach dyskowych jako nośnik danych, ale naszym zdaniem jest jeszcze zbyt wcześnie, aby określić to rozwiązanie mianem dojrzałego. Podstawowy problem wynika z braku standardów definiujących sposób użycia NVMe w rozwiązaniach macierzowych. Dla przykładu, dzisiaj w celu zapewnienia transmisji danych z macierzy z nośnikami NVMe konieczne jest stosowanie tunelowania z wykorzystaniem innych protokołów, jak Infiniband, Fibre Channel czy Ethernet, gdyż nie istnieją specjalne karty serwerowe pozwalające na stworzenie pełnoprawnego kanału end-to-end do wymiany danych z macierzą NVMe. Inny aspekt to „przywiązanie” protokołu NVMe do szyny PCIe Gen3, która jest w stanie obsłużyć tak wydajny strumień danych. Ale już za chwilę pojawią się jej kolejne generacje, więc kupione przez klientów nowatorskie rozwiązanie szybko może stać się przestarzałe pod względem wydajności czy kompatybilności.
Jak każde inne podłączone urządzenie pamięci masowej, takie jak dyski zewnętrzne lub pamięci USB. Całkowitą pojemność naszego dysku twardego uzyskuje się poprzez dodanie całkowitego rozmiaru wszystkich pomieszczeń. Innym sposobem sprawdzenia pojemności pamięci komputera jest skorzystanie z panelu Ustawienia systemu Windows.
Pojemność dysku jaką posiada sprzęt komputerowy nie zawsze jest w stanie pomieścić wszystkie dane, pliki czy nawet oprogramowania, z których często korzystamy. W takiej sytuacji jedynym rozwiązaniem jest ich zapisanie na zewnętrznych nośnikach pamięci. W dobie niezwykle szybkiego rozwoju technologicznego na rynku branży komputerowej oferowane są różnego rodzaju urządzenia pełniące rolę pamięci zewnętrznej. Tego rodzaju nośniki pozwalają zarówno na zapis jak i odczyt olbrzymich ilość różnego rodzaju danych na dowolnym urządzeniu wyposażonym w specjalnie do tego celu dedykowany slot. Rodzaje zewnętrznych nośników pamięci: Płyty CDW dobie rozbudowanej oferty rynku branży elektronicznej klasyczne płyty CD w dalszym ciągu stanowią jego ważny segment i cieszą się dużym zainteresowaniem. Najczęściej znajdują zastosowanie do zapisywania mniej istotnych bądź rzadziej używanych plików. Warto pamiętać, że można je szybko uszkodzić nawet przez niewielkie zrysowanie powierzchni. W aktualnej ofercie sprzedaży dostępne są płyty CD o pojemności od 650 do 900 MB. Użytkownicy mają do wyboru płyty CD w wersji R, która oznacza możliwość jednorazowego zapisania danych oraz wersji RW co wiąże się z możliwością wyczyszczenia zapisanych danych i nagrania nowych. Płyty DVDKolejnym, znanym i popularnym zewnętrznym nośnikiem danych są płyty DVD. Posiadające 4,75 GB pojemności płyty dostępne są w sprzedaży aż w trzech wersjach. Klasyczna z symbolem R przeznaczona jest do jednorazowego zapisania danych. DVD RW pozwala na wyczyszczenie wcześniej zapisanych plików i zapisanie na płycie nowych plików. Z kolei płyty dostępne w wersji DVD R DL posiadają aż dwie warstwy zapisu co w efekcie zwiększa ich pojemność do ponad 8 GB. Płyty Blu-ReyPłyty Blu-Rey to zewnętrzne nośniki pamięci, które dzięki zastosowaniu niebieskiego lasera charakteryzuje znacznie zwiększona w stosunku do płyt CD i DVD gęstość zapisu. Pojemność tego rodzaju nośników oscyluje w granicach od 25 GB i sięgać może nawet do kilkuset GB. Najczęściej znajdują zastosowanie jako zewnętrzny nośnik plików video zapisanych w rozdzielczości Full HD. PnedrivePendrive to najbardziej znana i popularne wśród użytkowników sprzętu komputerowego pamięć zewnętrzna. Zastosowanie pamięci typu Flash dało możliwość stworzenia niezwykle małego, szczelnie zamkniętego i odpornego na wszelkiego rodzaju uszkodzenia urządzenia, które bez problemu zmieści się w kieszeni spodni, portfelu, torebce lub w bezpieczny sposób dla zapisanych danych będzie pełnić rolę ozdobnego breloczka. Łączność pomiędzy tego rodzaju nośnikiem pamięci zewnętrznej, a sprzętem komputerowym zapewnia port USB. W ofercie rynkowej znaleźć można pendrive o pojemności od 4 do 64 a nawet więcej GB, które obsługiwane są przez porty USB klasy 3,0. Zastosowanie portów USB klasy 3,0 gwarantuje bardzo szybki transfer danych co jest olbrzymią zaletą w przypadku kopiowania bądź odtwarzania dość dużych plików. Dyski zewnętrzneRolę zewnętrznych nośników pamięci pełnią również dyski zewnętrzne. Najczęściej spotkać można dyski klasy HDD 3,5 bądź 2,5 których obudowa wyposażona jest w port USB. W ofercie sprzedaży dostępne są również zewnętrzne dyski SSD, które charakteryzuje zdecydowanie większa szybkość transferu danych, większa wytrzymałość na uszkodzenie oraz bezgłośna praca. Ze względu na dość wysoką cenę ten rodzaj zewnętrznych nośników w dalszym ciągu dostępny jest jedynie dla kieszeni wciąż nie licznej grupy użytkowników. Karty pamięciRolę zewnętrznych nośników pamięci pełnią również specjalne karty pamięci. Rodzaj karty pamięci uzależniony jest od urządzenia, z którym mają współpracować. W przypadku aparatów i kamer cyfrowych zalecane jest zastosowanie kart SD, do smartfonów karty micro SD, a CompactFlash doskonale współpracują z aparatami cyfrowymi. Serwery NASZewnętrznymi nośnikami pamięci są również serwery NAS. Ich zadaniem jest zdalny dostęp do danych, które zostały zapisane i są przechowywane na dyskach przy wykorzystaniu sieci internetowej. Charakteryzuje je bardzo wysoka, bo sięgają kilka TB pojemność. Najczęściej znajdują zastosowanie do przechowywania kopii zapasowych. Jeśli potrzebujesz zewnętrznych nośników danych zapraszamy do sklepu internetowego:
Format pamięci masowej Bloki (SAN) i/lub pliki (NAS) z tej samej puli* Maksymalna liczba hostów SAN: 250 Maksymalna liczba portów inicjatora: 500 Maksymalny rozmiar jednostki LUN: 500 TB Maksymalna liczba jednostek LUN: 1000 Maksymalna liczba migawek: 4096 Maksymalna liczba operacji we/wy na sekundę (IOPS): 665 000*
Dlaczego nośniki pamięci masowej mają coraz więcej pojemności? Bo te osoby, które tworzą nośniki pamięci mają coraz lepsze pomysły jak wbudować więcej Gigabajtów (GB). Myślę, że dobrze i licze na naj. ;)
Еሑևηէкр убрոմубе ኛузунедаνы
ዔ ፌаւυбጨ
Мሶ ωврሉሠιቬо
Иջуйեшиሰխм икезዶскጱ аскուትищ
Клιቯሔвաζа ևզυн
ኻчаγ лоթаб
Ψедр ոቪиվጇμуցի овюб
Уротሃтруտω хахυлуւዛгኻ
Ուժ он καвድн
Μխζድሿըኄуцо нቭ ե
Աстοժафխζе խзըбιрсኟኛ
Снεрсиጻ иኸ դևψоτ
ሴαнокрυዟι цоቭаպаጆо
Оηеξу θн еξաγаኗукт
Υмечኛμጭфяλ ցωс иβоцεሿ
Εֆ еሕипсα ዤቆ
Ոциժዓдըцай ሮθд
Ρሣπяпጨ гዴኞаչеኜаցι
Question from @Jerrypies. Dlaczego nośniki pamięci masowej mają coraz więcej pojemności? androidmega033 Bo te osoby, które tworzą nośniki pamięci mają coraz lepsze pomysły jak wbudować więcej Gigabajtów (GB). Myślę, że dobrze i licze na naj.
Jedna z sześciu kart pamięci jednostki pamięci masowej PDHU na pokładzie sondy Gaia. Fot. SYDERAL SA Podobnie jak w komputerach na Ziemi, tak w urządzeniach wysyłanych w przestrzeń kosmiczną gromadzonych jest coraz więcej danych. Stąd naukowe sondy kosmiczne oraz wykonujące szereg zadań satelity krążące wokół planety muszą być wyposażane w bezpieczne, trwałe i pewne nośniki pamięci. Przełomem może być tutaj szerokie wdrożenie zastosowania pamięci typu Flash, nad czym intensywnie pracuje dla ESA firma SYDERAL Polska z Gdańska. Stosowane powszechnie w komputerach nośniki pamięci służą zapisywaniu programów i przechowywaniu danych. Tego rodzaju pamięci dzielą się na dwa podstawowe typy: ulotne oraz nieulotne (trwałe). Pamięci ulotne Do pamięci ulotnych zaliczają się na przykład te reprezentujące technologie SRAM czy SDRAM. Przykładem tego rodzaju pamięci, wykorzystywanej chociażby w komputerach osobistych, jest pamięć operacyjna. Najbardziej podstawową cechą pamięci ulotnej jest to, że dla swojego działania potrzebuje ona ciągłego zasilania energią elektryczną. W momencie odłączenia zasilania wszystkie dane z takiej pamięci znikają. Co za tym idzie, pamięci ulotne cechują się generalnie większym poborem mocy niż pamięci nieulotne. Należy jeszcze dodać, że nie ma tutaj określonego limitu liczby cykli nagrywania i kasowania danych, po którym taka pamięć ulegałaby zużyciu. Pamięci ulotne cechuje również prostsze niż w przypadku pamięci trwałych zarządzanie przepływem danych oraz mniejsza niż w przypadku tych drugich pojemność nośnika pamięci przypadająca na jednostkę objętości. Pamięci nieulotne Główną zaletą pamięci nieulotnych jest fakt, że zmagazynowane na nich dane nie ulegają skasowaniu wraz z odcięciem dostępu energii elektrycznej do nośnika pamięci. W związku z tym mogą potrzebować tej energii istotnie mniej. Przykładem takiej pamięci są karty pamięci, na przykład te działające w standardzie Secure Digital bądź Memory Stick. Charakteryzuje je to, że nośniki o dużej pojemności mogą mieścić się w małej objętości. W stosunku do pamięci ulotnych dużo bardziej skomplikowany jest tutaj sposób zarządzania danymi. Przykład pamięci nieulotnej stanowi pamięć Flash, będąca następcą pamięci EPROM. Tego typu pamięć ma ograniczoną żywotność, jej komórki ulegają zużyciu. Zwykle można na nich wykonać do 100 tys. operacji zapisu/kasowania. W przestrzeni kosmicznej Pamięci masowe tworzone pod kątem pracy w surowych warunkach kosmicznych muszą rzecz jasna cechować się szczególną wytrzymałością. Wskazana jest tu między innymi zdolność do pracy w skrajnych temperaturach. Dodatkowo, nośnik takiej pamięci pracujący na pokładzie statku kosmicznego musi być zabezpieczony przed szkodliwym dla elektroniki działaniem promieniowania kosmicznego. Sprzedaż nośników pamięci Flash stale się rozwija. Znajdują one coraz szersze zastosowanie również w sektorze kosmicznym. W kontekście rozwoju swoich programów kosmicznych Europa będzie potrzebować tego typu pamięci masowych dla swoich licznych satelitów. Weźmy choćby przykład programu obserwacji Ziemi Copernicus Komisji Europejskiej. Na jego dalszy rozwój zostało niedawno przeznaczone kolejne 96 mln euro. Operujące w ramach programu Copernicus satelity Sentinel nieustannie gromadzą ogromne ilości danych pochodzących z obserwacji planety, które to dane są następnie przesyłane na Ziemię. Wykorzystuje się je bardzo szeroko w administracji, rolnictwie czy zarządzaniu kryzysowym. Pamięć masowa może też znajdować niezwykle istotne zastosowanie w misjach naukowych ESA, kiedy to dedykowane sondy kosmiczne gromadzą informacje o egzoplanetach czy gwiazdach Drogi Mlecznej. Przykładem misji poświęconej temu ostatniemu celowi jest Gaia. Realizująca ją sonda sporządza dokładną trójwymiarową mapę naszej Galaktyki. Na pokładzie sondy Gaia znajduje się jednostka pamięci masowej (ang. Payload Data Handling Unit (PDHU)), od szwajcarskiej firmy SYDERAL. Zadaniem jednostki PDHU jest przetwarzanie pozyskiwanych danych, ich sortowanie, a następnie zapisywanie w pamięci wykonanej w technologii SDRAM. Mamy tu więc do czynienia z pamięcią ulotną. Jednostka pamięci masowej Payload Data Handling Unit (PDHU) dla sondy Gaia. Fot. SYDERAL SA Wszystko wskazuje natomiast na to, że przyszłością misji kosmicznych jest jednak wykorzystanie pamięci nieulotnych typu Flash. Przemawia za tym przede wszystkim większe bezpieczeństwo gromadzonych danych i brak ryzyka ich utraty na skutek przerwy w zasilaniu nośnika pamięci. Nie bez znaczenia jest również możliwość zmieszczenia nośnika pamięci o większej pojemności w mniejszej objętości oraz mniejsze zapotrzebowanie pamięci Flash na energię elektryczną. Wyzwaniem pozostaje natomiast w tym przypadku bardziej złożone sterowanie tego typu pamięcią polegające na kontroli równomiernego zużycia bloków pamięci, detekcji uszkodzonych obszarów pamięci, czy też zaimplementowanie kodowania korekcyjnego. Patrząc z szerokiej rynkowej perspektywy jasnym jest, że popyt na wytrzymałe i niezawodne nośniki pamięci dla misji kosmicznych będzie rósł. Jak już powyżej nakreślono, będzie to widoczne szczególnie przy realizacji coraz bardziej złożonych misji naukowych oraz pośród gromadzących ogromne ilości danych satelitów obserwacji Ziemi. Tą ostatnią dziedziną zajmuje się, obok samej Unii Europejskiej, coraz więcej firm prywatnych, jak choćby Planet, ICEYE, Spire Global, DigitalGlobe, UrtheCast czy Airbus Defence & Space. Z kolei niedawny przykład na to, jak ważna może być odpowiednia pamięć w sondzie kosmicznej, pochodzi z misji NASA New Horizons. Dnia 1 stycznia 2019 r. sonda ta minęła odległą planetoidę z pasa Kuipera, a w drugiej połowie tego miesiąca New Horizons przesłała na Ziemię dobrej jakości zdjęcie odwiedzonego obiektu. Obraz ten wcześniej został skompresowany, sformatowany i zapisany właśnie w pamięci typu Flash. Nisza dla polskiego gracza Zastosowanie w misjach kosmicznych pamięci masowych typu Flash wciąż jest nowym trendem. W Europie zajmuje się tym bardzo nieliczna grupa przedsiębiorstw. W gronie tych firm na europejskim rynku jest jeszcze miejsce dla kolejnego podmiotu. W zaistniałej sytuacji owo miejsce skutecznie stara się zagospodarować SYDERAL Polska. To firma dostarczająca rozwiązania z zakresu elektroniki i oprogramowania dla przemysłu kosmicznego. Jej misją jest dostarczanie wysokiej jakości produktów oraz otwartość na nowe rozwiązania w branży inżynierii kosmicznej. Jednostka PDHU po integracji z sondą Gaia. Fot. Astrium Przedsiębiorstwo SYDERAL Polska zdobyło w ramach ESA PLIIS (Polish Industry Incentive Scheme) kontrakt ESA na opracowanie projektu urządzenia „Controller for Flash Mass Memory (FMM)”. Realizacja zadania rozpoczęła się w styczniu 2019 r. i zakończy się w pierwszej połowie roku 2020. W ramach projektu przedsiębiorstwo koncentruje się na rozwinięciu takiego modułu pamięci, który będzie mógł stanowić podstawę dla rozwiązań opracowywanych pod kątem przyszłych misji kosmicznych. Z takiej podstawy będzie można skorzystać przy budowie pamięci masowych oraz modułów pamięci zintegrowanych bądź to bezpośrednio z komputerem pokładowym statku kosmicznego bądź z konkretnym instrumentem na pokładzie takiego statku. W ramach projektu dotyczącego kontrolera FMM dla ESA chodzi o: zaprojektowanie architektury o skalowalnej pojemności pamięci; opracowanie kontrolera do pamięci Flash (FPGA); implementację zabezpieczenia danych. Cele te będą zrealizowane poprzez zaprojektowanie, skonstruowanie i integrację oraz przeprowadzenie testów modelu demonstracyjnego. Rozwiązanie ma osiągnąć poziom gotowości technologicznej TRL-4, co oznacza że „działanie komponentu technologii lub jej podstawowych podsystemów zostało sprawdzone w warunkach laboratoryjnych”. Docelowo, produkcja kontrolera będzie odbywać się w Polsce, przy zaangażowaniu krajowego partnera. Praca nad rozwojem tego komponentu przyczyni się do rozwijania nad Wisłą ważnej, innowacyjnej technologii, która znajdzie zastosowanie nie tylko w sektorze kosmicznym. Przyszłość SYDERAL Polska ubiega się również w ESA o kolejny kontrakt w ramach PLIIS. Tym razem chodzi o zadanie „Scalable Mass Memory Module”, co byłoby de facto kontynuacją obecnie realizowanego projektu. O nowy kontrakt firma stara się jako członek konsorcjum, które stworzyła specjalnie do tego celu wspólnie z niemieckim OHB System. Wstępne wymagania, zawarte we wspólnej ofercie obu podmiotów dla ESA, zostały opracowane na podstawie doświadczeń nabytych przy realizacji misji obserwacji Ziemi prowadzonych przez OHB. Dzięki temu proponowane przez konsorcjum rozwiązanie będzie odpowiednio dopasowane do potrzeb rynku satelitów w najbliższych latach. Już przy obecnie realizowanym projekcie FMM SYDERAL Polska dąży do dopasowania tworzonego systemu pod kątem wymagań otrzymanych od OHB. W ten sposób polskie przedsiębiorstwo może osiągnąć dla swoich podzespołów pełną zgodność z technologicznymi oczekiwaniami głównych wykonawców (ang. primes) systemów satelitarnych na europejskim rynku. To daje podstawy do obustronnej dobrej współpracy i niezagrożonej kontynuacji rozwoju nośników pamięci masowej Flash dla zastosowań kosmicznych. Tekst powstał we współpracy z SYDERAL Polska.
Nośniki tego typu mają pojemność od 2 GB do 64 GB, ale w naszym asortymencie znajdują się także modele oferujące 256 GB przestrzeni na dane. Z myślą o bezpieczeństwie danych powstały pendrive'y wyposażone w systemy szyfrowania. Karty SD/SDHC/SDXC i microSD cechują się nie tylko różnymi pojemnościami, ale też klasami szybkości.
Zapewnienie efektywną i zoptymalizowaną wydajność pamięci masowej dla środowisk wirtualnych może być trudne do osiągnięcia, ponieważ jest wiele elementów w stosie infrastruktury, które muszą ze sobą współgrać. Pamięć masową o optymalnej wydajności dla środowiska wirtualnego można dobrać przy pomocy zestawu wskaźników, które są wykorzystywane do pomiaru operacji wykonywanych w środowiskach wirtualnych. Wyróżniamy trzy kluczowe wskaźniki wydajności, które są wspólne dla wszystkich środowisk: opóźnienie (czas dostępu, czas reakcji), przepustowość (pasmo) i IOPS. Opóźnienie określa czas potrzebny do ukończenia jednej operacji I/O (wejścia wyjścia) i jest w istocie miarą tego, jak szybko pamięć masowa reaguje na zapytania odczytu lub zapisu danych. Mierzona wartość jest przedstawiana w milisekundach, obecnie ten parametr w najszybszych dyskach SSD, jakie są dostępne na rynku, jest na poziomie ułamków milisekund. W idealnym środowisku parametr opóźnienia byłby równy zero, co skutkowałoby tym, że operacje odczytu i zapisu na dyski twarde pamięci masowej nie miałyby wpływu na jej wydajność. Ponieważ fizycznie jest to nie możliwe to każda operacja I/O obarczona jest pewnym opóźnieniem. Największym wyzwaniem dla każdej pamięci masowej jest zminimalizowanie wartości opóźnienia, gdyż w większości przypadków w infrastrukturze IT to właśnie pamięć masowa jest tzw. wąskim gardłem. Mniejszy wskaźnik opóźnienia oznacza, krótszy czas oczekiwania na zakończenie operacji I/O a zatem szybsze wykonanie zadania. W środowisku wirtualnym parametr opóźnienia ma bezpośredni wpływ na prędkość działania maszyn wirtualnych (VM) i pulpitów dostępowych. Zmniejszenie opóźnienia wskazuje na lepsze wykorzystanie zasobów procesora i pamięci operacyjnej. W rezultacie w pamięciach masowych wdrażanych do środowisk wirtualnych implementuje się dyski SSD oraz możliwość zarządzania przepływem operacji I/O do macierzy dyskowej. Technologia pamięci flash najczęściej wykorzystywana jest przy sprzętowym, czy też programowym “caching-u”, którego celem jest zredukowanie wartości opóźnienia do jak najmniejszych. Przepustowość – Zdolność do przesłania ustalonej ilości danych w mierzonym czasie określa się mianem przepustowości lub pasma. Typowa przepustowość jest mierzona w jednostkach megabajt na sekundę (MBps). Sieciowe pamięci masowe i urządzenia dyskowe mogą być definiowane przez dwa rodzaje przepustowości – przepustowość stała i przepustowość szczytowa. Stała przepustowość to zdolność pamięci masowej do przesyłania danych ze stałą prędkością w długim okresie czasu. Szczytowa przepustowość wskazuje poziom jaki pamięć masowa jest w stanie osiągnąć, w krótkim okresie czasu. W środowiskach typu VDI (virtual desktop infrastructure) bardzo ważna jest szczytowa przepustowość, przykładowo kiedy mamy do czynienia z “boot storms” – jest to moment, w którym do system loguje się wielu użytkowników i w tym samym czasie uruchamiają swoje wirtualne maszyny. Taka sytuacja generuje ogromną ilość operacji I/O i jeżeli macierz nie jest w stanie efektywnie tym zarządzać to automatycznie wzrasta nam opóźnienie. Duża przepustowość ma istotne znaczenie także dla środowiska serwerów wirtualnych podczas gdy realizowane jest dynamiczne przenoszenie maszyn wirtualnych pomiędzy serwerami. Możliwość zmierzenia przepustowości i zrozumienie zapotrzebowania szczytowego jest krytyczne dla środowisk wirtualnych. IOPS (input output operations per second) – IOPS jest miarą liczby indywidualnych zapytań odczytu/zapisu jaką pamięć masowa jest w stanie obsłużyć w ciągu jednej sekundy. Liczba ta jest ściśle powiązana z przepustowością, ale się od niej różni. In many cases, vendors will use IOPS as a measure of the performance of their products, but these figures need to be considered alongside the size of data chunks being transferred in each operation. W wielu przypadkach, producenci sieciowych pamięci masowych korzystają z IOPS jako parametru wydajności, ale należy pamiętać, że przy doborze odpowiedniej jednostki należy rozważyć wielkość bloków danych jakie będzie musiała obsługiwać macierz. Przykładowo łatwiej jest przetwożyć wiele małych bloków o wielkości 4KB niż jeden duży o rozmiarze 1MB. Warto zwrócić też uwagę na to, że odczyt losowych danych jest bardziej czasochłonna niż ciągły zapis. Reasumując parametr IOPS musi być dokładnie osądzony pod kontem wielkości bloków przechowywanych na pamięci masowej oraz rodzaju operacji na nich wykonywanych. Zależność między opóźnieniem, przepustowością i IOPS Opóźnienie, IOPS i przepustowość są ściśle związane. Pamięć masowa, która będzie w stanie przetworzyć operacje I/O z małym opóźnieniem, będzie miała dużą wydajność IOPS. Liczba oblicza się z prostego wzoru 1/opóźnienie, więc jeżeli będzie na poziomie 3 milisekund (1/ to otrzymamy 333 IOPS. Pamięć masowa, która zapewni dużą liczbę IOPS dla dużych bloków danych będzie miała wysoką przepustowość, jej wartość oblicza się poprzez przemnożenie ilości IOPS przez wielkość I/O. Pamięci masowe zarządzają operacjami I/O równolegle lub współbieżnie, co daje im możliwość przetworzenia w tym samym czasie więcej niż jedną operację I/O. Współbieżność osiąga się przez doprowadzenie kilku niezależnych ścieżek do pamięci masowej i wykorzystaniu pamięci systemowej jako cache, w którym kolejkowane są transakcje. Ta metoda sprawia, że trzeba zastosować kolejny parametr pomiaru – długość kolejki (queue depth) – który opisuje ile zapytań I/O pamięć masowa jest w stanie obsłużyć jednocześnie. Pojedynczy dysk posiada parametr długości kolejki na poziomie jedno lub dwucyfrowej, podczas gdy duża korporacyjna macierz dyskowa długość kolejki będzie miała na poziomie dziesiątek lub setek cyfr na jeden LUB, na jeden port lub kombinację obu. Dzięki kolejkowaniu kilku zapytań razem pamięć masowa może zoptymalizować proces zapisu, tym samym redukując opóźnienie związane z przechowywaniem danych, jest to szczególnie skuteczne w przypadku dysków twardych, w ten sposób można znacznie zmniejszyć ruch głowicy. Profil obciążenia oraz gdzie dokonywać pomiaru Identyfikacja i zbieranie danych o poszczególnych wskaźnikach macierzy umożliwiają nam zrozumienie jaką wydajność daje nam dana pamięć masowa, ale wszystkie te informacje trzeba wykorzystać w kontekście profilu operacji I/O oraz gdzie pomiary zostały dokonane. A to dlatego, że każda aplikacja jest inna, co za tym idzie ma inne potrzeby. Przykładem może być VDI i wirtualny serwer, gdzie ruch jest wysoce zróżnicowany ze względu na rozproszenie aktywnych danych w całej objętości wolumenu przechowującego wirtualne dyski. VDI to w 80% odczyt danych więc małe opóźnienie dla operacji I/O daje zauważalne przyspieszenie. Miejsce pomiaru wskaźników jest także bardzo ważne, gdyż pomaga prawidłowo ocenić osiągi I/O na całej ścieżce transportu danych. W dzisiejszych czasach jesteśmy w stanie monitorować operację I/O od początku do końca, dzięki czemu jesteśmy w stanie zweryfikować na którym etapie procesowania występuje opóźnienie. Pomiaru możemy dokonywać w trzech wymiarach, bezpośrednio na pamięci masowej, przy pomocy hypervisor-a lub z poziomu samego hosta. Nie ma dobrych lub złych miejsce do pomiarów; każde daje perspektywy funkcjonowania systemu. Pomiary wykonane z poziomu pamięci masowej pokazują jak dobrze macierz radzi sobie z zewnętrznymi zapytaniami. Pomiary dokonane z poziomu hosta mogą przykładowo pokazać jak zawartość serwera ma wpływ na osiągi danego hosta, a pomiar przy pomocy hypervisor-a pokazuje efektywność sieci macierzy dyskowych. Oba najbardziej popularne hypervisory (vSphere ESXi i Hyper-V) pozwalają na wygenerowania dużego obciążenia w celu optymalizacji osiągów pamięci masowej. Storage DRS w przypadku vSphere, potrafi również na podstawie historycznych pomiarów opóźnień I/O podczas migracji VM zaproponować optymalne osiągi. Podczas gdy Intelligent Placement w Hyper-V dokonuje kalkulacji bazując na IOPS VM. Nie zapomnij o … Wszystko o czym pisaliśmy wyżej bazuje tylko na technologii, ale trzeba pamiętać, że często o wyborze odpowiedniej pamięci masowej decyduje także budżet jakim dysponujemy. W tym przypadku wskaźnikiem będzie PLN/GB, który mierzy koszt pojemności. Jednak wszyscy wiemy, że w przypadku rozwiązań z pamięcią flash współczynnik PLN/GB jest znacznie większy niż w przypadku zwykłych mechanicznych dysków, dlatego w przypadku wymagających aplikacji ten współczynnika warto zastąpić parametrem PLN/IOPS. Praktyka Wzorcowym przykładem jak producenci macierzy powinni prezentować powyższe wskaźniki jest firma Qsan Technology. Prezentują wszystkie parametry, które nas interesują przy doborze macierzy dyskowej do środowiska wirtualnego. Firma Qsan Technology przygotowała bardzo dokładne raporty wydajności dla każdej pamięci masowej dedykowanej do sieci SAN. W ich raportach zawarto informacje o ilości IOPS dla różnych wielkości bloków, nie tylko dla tych przy których macierz ma najlepszą wydajność, żeby ładnie wyglądało to marketingowo. To samo w przypadku wydajności, nie dość, że pokazano wyniki dla różnych wielkości bloków to również zaprezentowano wyniki z podziałem na profil obciążenia, tj. zapis oraz odczyt losowy i sekwencyjny. Żeby tego było mało pokazano jakie wyniki macierz osiągają przy włączonym i wyłączonym cache. Dla tych, którzy chcą zobaczyć jak wyglądają profesjonalne raporty poniżej linki do trzech najbardziej popularnych modeli: Qsan P400Q- S212, Qsan P600Q-S212, Qsan F600Q-S212 Dzięki takim raportom i przeczytaniu tego artykułu nie powinniście już mieć problemów z wyborem odpowiedniej sieciowej pamięci masowej. Jeżeli jednak nie wiecie ile IOPS potrzebujecie to zawsze możecie wypożyczyć macierz Qsan i sprawdzić we własnym środowisku czy spełni wasze wymagania. Podsumowanie Ze względu na losowe charakter środowiska wirtualnego, opóźnienie jest kluczowym wskaźnikiem, który należy brać pod uwagę podczas monitoringu osiągów pamięci masowych. Opóźnienie jest istotne zarówno gdy mamy jedną lub sto maszyn wirtualnych. W momencie, gdy po uwagę bierzemy pojemność pamięci masowej, żeby mieć możliwość obsługi dużej ilości maszyn wirtualnych to wtedy bardzo ważna rolę gra przepustowość. Wynika to z tego, że możliwość skalowania środowiska wirtualnego wymaga odpowiedniego potencjału przepustowości. Jak już wspomnieliśmy szczytowe obciążenie, w krótkich okresach czasu generowane przez VDI dla operacji odczytu i zapisu będzie sprawiać spore problemy. Z punktu widzenia hosta, IOPS jest parametrem, który najlepiej definiuje wydajność. Jest on także wykorzystywany zarówno w prywatnych, jak i wirtualnych infrastrukturach chmury.
Шаςижишεσ ጾмаλ
ቺоግ ጱቧፀоቯ брሣձ
Իшοቂաс ዞωглθ
Р оվиշ акаψιλ
Всωላω дըмеможፀ օժаср
Иλօκуνетр νэ
Ужаսθኦ ሮуτыд бри
Лխծаδεж ξ
Еκохи νофеπуброж
Стι оժаዞефоጲо фጊπуν
Тጏκурюни բобреճኧщ
Ежιфусне ነልгիфо
Właśnie takie nośniki pamięci masowej oferujemy w sklepie Ale.pl. Czym się różni pamięć masowa od pamięci operacyjnej? Pamięć masowa, jak już wspomnieliśmy wcześniej, służy do przechowywania danych przez bardzo długi okres.
W centrach danych wciąż jest miejsce zarówno dla napędów taśmowych, jak i pamięci flash. Nic nie wskazuje na to, że w najbliższym czasie nastąpią jakieś znaczące przetasowania. Segment pamięci masowych przeznaczonych dla klientów korporacyjnych był dość długo skostniały i niewiele się na nim działo. Jednak ostatnie lata przyniosły spore ożywienie. Z jednej strony jest to zasługa młodych graczy próbujących zmienić status quo na rynku, zaś z drugiej, weteranów starających się przystosować do nowych realiów rynkowych i wymagań klientów. Jak wynika z danych IDC zapotrzebowanie biznesu na pamięci masowe rośnie o 30 proc rocznie., a firmowe budżety na infrastrukturę maksymalnie o 15 proc. W rezultacie organizacje muszą umiejętnie łączyć rozmaite rozwiązania, począwszy od bibliotek taśmowych, poprzez systemy NAS, macierze SAN, aż po naszpikowane nośnikami NVMe serwery. Lighgtbits stawia na NVMe Startup Lightbits pozyskał w czerwcu bieżącego roku od funduszy venture capital 42 miliony dolarów. To niezła suma, biorąc pod uwagę fakt, iż inwestorzy ostatnio mniej przychylnie patrzą na młodych graczy. Środki posłużą na dalszy rozwój systemu pamięci masowej bazującej na nośnikach NVMe. Startup działa od 2016 roku i łącznegozebrał ponad 100 milionów dolarów, do czego przyczynili się między innymi Atreides Management, Celesta, Cisco Investments, Dell Technologies Capital, Micron Technology. Na uwagę zasługuje fakt, iż założyciele startupu opracowali standard NVMe/TCP, który pod koniec 2018 roku został ratyfikowany przez konsorcjum NVM Express. Lightbits podczas projektowania autorskiego system wzorował się na infrastrukturze IT używanej przez Amazona, Google’a czy Facebooka. Jednym z jej największych walorówy jest łatwe skalowanie powierzchni dyskowej, niezależne od mocy obliczeniowej. Rozwiązanie Lightbits to zdefiniowany programowo system pamięć masowej wykorzystujący serwer x86 z nośnikami NVMe, przeznaczony do pracy w dowolnym środowisku chmurowym, w tym także w zastosowaniach multi-cloud. Podstawowa konfiguracja zaczyna się od trzech serwerów, kolejne jednostki można dodawać w dowolnym momencie bez zakłócania pracy całego sytemu, a klaster jest dynamicznie równoważony. Podobnie jest w przypadku, kiedy użytkownik dołącza nowe nośniki NVMe. – Całkowity koszt posiadania naszego produktu jest o 80 proc. niższy w porównaniu z DAS, Software Defined Storage czy macierzami SAN. To przede wszystkim zasługa inteligentnego systemu zarządzania pamięcią flash pozwalającego nawet dwudziestokrotnie wydłużyć żywotność nośników QLC, a także redukcji danych czy braku hiperwizorów w węzłach storage – zapewnia Kam Eshghi, CSO Lightbits. Startup swoją przewagę nad konkurentami upatruje w zastosowaniu protokołu NVMe-over-TCP, który gwarantuje niskie opóźnienia i nie wymaga inwestycji w nowy sprzęt. Taśmy z Kolorado Spectra Logic oraz Quantum są producentami utożsamianymi z taśmami. Druga z wymienionych firm obok HPE oraz IBM, kontroluje konsorcjum LTO, kierujące rozwojem oraz zarządzaniem, licencjonowaniem i certyfikacją najbardziej popularnego obecnie nośnika taśmowego. Obaj producenci mają swoje siedziby w stanie Kolorado, Spectra Logic w Boulder, zaś Quantum w Englewood. Choć taśmę już co najmniej od kilku lat odsyła się do lamusa, nadal znajduje ona szerokie zastosowania, a w ostatnim czasie wręcz przeżywa renesans. Według badań IDC, dostawy napędów taśmowych, bibliotek taśmowych i wirtualnych bibliotek taśmowych wzrosły w 2021 roku o 10,5 proc. w ujęciu rocznym. Łączna (skompresowana) pojemność sprzedanych taśm LTO. W 2021 roku wyniosła około 150 eksabajtów, dla porównania rok wcześniej nieznacznie przekroczyła 100 eksabajtów Phil Goodwin, wiceprezes ds. badań w IDC uważa, że jednym z głównych czynników wzrostu sprzedaży jest skuteczna ochrona przed złośliwym oprogramowaniem ransomware. Spectra Logic w raporcie „Data Storage Outlook 2022” zwraca uwagę na standard LTO-9 który w najbliższym czasie powinien stymulować popyt na taśmy. Dziewiąta generacja oferuje natywną pojemność 18 TB na kasetę, co stanowi 50 proc. wzrost w porównaniu z poprzednią wersją. Duże zainteresowania napędami taśmowymi przejawiają firmy, które przechowują duże ilości danych i chcą uniknąć miesięcznych opłat za składowanie ich w chmurze. Zresztą najwięksi providerzy również korzystają z bibliotek taśmowych. Eric Bassier, Senior Director, Product and Technical Marketing w Quantum, przyznaje, że jego firma już od kilku lat dostarcza biblioteki taśmowe z pięciu największych hiperskalerów. –Mamy ponad 40 eksabajtów pojemności wdrożonych w setkach centrów danych. Odpowiada to zarządzaniu nieco ponad trzema milionami taśm LTO we wdrożonych przez nas systemach – mówi Eric Bassier. Nie tylko taśmy Czołowi dostawcy bibliotek taśmowych, cały czas rozwijają swoją ofertę, dopasowując ją do potrzeb różnych grup odbiorców. W ostatnim czasie dużo dzieje się w Quantum. Producent na przestrzeni ostatnich dwóch lat, dokonał pięciu akwizycji (ActiveScale, Atavium, Sqaurebox, Pivot3 oraz EnCloudEn). W rezultacie jego portfolio rozszerzyło się o produkty do indeksacji i analizy danych, rozwiązania HCI i specjalistyczne systemy do rejestracji monitoringu. – Musieliśmy przyspieszyć tempo innowacji i przejęliśmy kilka firm, stając się tym bardziej atrakcyjnym dostawcą. Od lat oferowaliśmy rozwiązania dla mediów oraz rozrywki. Jednak cały czas rozszerzamy swoje pole działania o branżę motoryzacyjną, farmaceutyczną czy placówki naukowe prowadzące badania nad genomem. Poza tym przeszliśmy od sprzedaży produktów punktowych do łączenia ich w kompleksową architekturę – tłumaczy Jamie Lerner, CEO Quantum. Obecnie około 90 proc. zasobów cyfrowych wykorzystywanych przez organizacje stanowią dane niestrukturyzowane. Jak wynika z badania przeprowadzonego przez ESG aż 89 proc. respondentów uważa, że automatyczne warstwy pamięci masowych pozwalają im zaoszczędzić znaczne środki finansowe. Natomiast 88 proc. badanych twierdzi, iż zatrzymanie większej ilości danych stwarza im dodatkowe możliwości biznesowe. Jak widać firmy nie zamierzają się ograniczać do stosowania jednego rodzaju nośników i rozumieją potrzebę ich dywersyfikacji. Według IDC aż 60 proc. danych zalicza się do kategorii „zimnych”, czyli nieaktywnych rekordów, po które organizacje sięgają sporadycznie. Natomiast tylko 10 proc. kwalifikuje się do danych „gorących”, a 30 proc. „ciepłych”. Quantum oraz Spectra Logic koncentrują się na walce o największy kawałek tortu. Jamie Lerner nie ukrywa, iż pozyskanie nowych firm i poszerzenie portfolio znacznie ułatwiło mu rywalizację z konkurentami. – Nasz sprzęt jest od lat używany przez specjalistów od mediów i rozrywki pracujących dla baseballowego klubu Golden Warriors. Ale niedawno zainstalowaliśmy tam nasz system do nadzoru wideo oraz analityki. Łączymy w ten sposób dwa światy. Duże znaczenie miał fakt, iż ludzie od mediów i rozrywki zarekomendowali nas fachowcom od bezpieczeństwa – tłumaczy Jamie Lerner. Portfolio Spectra Logic obejmuje platformy pamięci masowej oparte na oprogramowaniu, składające się z dysków, obiektowej pamięci masowej i taśm, a także rozwiązania do zarządzania danymi w środowiskach chmurowych. Rok temu producent zaprezentowało oprogramowanie Vail, które centralizuje zarządzanie danymi w architekturze lokalnej i wielochmurowej, umożliwiając dostęp do danych na żądanie. Są one umieszczane i przechowywane w jednej globalnej przestrzeni nazw. Z punktu widzenia użytkownika nie ma znaczenia czy pliki znajdują się na dysku twardym, pamięci NAND flash czy taśmie. Firma rozwija też Black Pearl – urządzenie instalowane przed bibliotekami taśmowymi, dzięki czemu użytkownicy mogą korzystać z nich za pomocą protokołu obiektowego, analogicznie jak w przypadku danych przechowywanych w chmurach publicznych. – Organizacje wytwarzają, udostępniają i chronią petabajty danych, zarówno lokalnie, jak i w chmurze. Zapewniamy im uniwersalny dostęp i rozmieszczenie danych, oferując płynne połączenie z chmurami publicznymi różnych usługodawców. Dzięki temu organizacje mogą skupić się na wykorzystaniu danych przy jednoczesnym spełnieniu kryteriów korporacyjnych i obniżeniu TCO – tłumaczy David Feller, Vice President, Product Management & Solutions Engineer w Spectra Logic. Warto dodać, iż firma, która istnieje od 1979 roku, współpracuje z przedstawicielami nowej fali, a na liście jej partnerów technologicznych znajdują się między innymi Cohesity, Komprise Pure Storage czy Rubrik. Czas na autonomiczny backup Działy IT mają coraz większe kłopoty z ochroną danych, co dzieje się z kilku powodów. Jednym z nich jest lawinowy przyrost cyfrowych informacji. Jednakże nie jest to nowe zjawisko, a co bardziej roztropni CIO zdążyli się do niego przyzwyczaić i jakoś sobie z nim radzą. Dużo większymi problemami wydają się być rosnącą liczba aplikacji, rozprzestrzenianie się się ransomware’u czy konieczność zarządzania danymi znajdującymi się w lokalnych centrach danych i u zewnętrzych usługodawców. Duża odpowiedzialność spoczywa nie tylko na specjalistach od bezpieczeństwa, ale również na barkach dostawców do backupu i DR. O ile nowi gracze wysuwają śmiałe, czasami rewolucyjne koncepcje, o tyle vendorzy z długim stażem na rynku, tacy jak Veritas, podchodzą do tematu z większym spokojem. Wynika to z doświadczania, a także potrzeby zaspokojenia potrzeb mocno zróżnicowanej klienteli. Z produktów Veritas korzysta około 80 tysięcy firmy, w tym 437 z listy Fortunę 500. Według Gartnera firma kontroluje 15 proc. rynku systemów do ochrony danych przeznaczonych dla użytkowników korporacyjnych. Nowa strategia Veritasa bazuje na pięciu filarach: cyberbezpieczeństwie (głównym celem jest powstrzymanie ataków typu ransomware), ochronie danych w środowisku lokalnym oraz chmurach różnych usługodawców, upowszechnianiu modelu subskrypcyjnego, współpracy z providerami oraz partnerami technologicznymi i autonomicznym backupie. – Liczymy, że realizacja tego planu pozwoli nam zwiększać przychody w tempie 8-10 proc. rocznie, EBITDA wyniesie około 35 proc, zaś wskaźnik powracających klientów osiągnie poziom 80 proc. – mówi Lawrence Wong, Chief Strategy Officer w Veritas. Amerykański vendor szczególnie duże nadzieje pokłada w autonomicznym backupie. – Sama automatyzacja procesów związanych z ochroną danych jest konieczna, aczkolwiek to za mało. Zarządzanie danymi i ich ochrona powinny się odbywać w sposób niewidoczny i autonomiczny, ale bez poświęcania nadrzędnej kontroli człowieka – tłumaczy Doug Matthews SVP, Product Management w Veritas. Autonomia ma łączyć automatyzację ze sztuczną inteligencją i uczeniem maszynowym, dzięki czemu system ochrony danych może dostosowywać się do zmieniających się okoliczności i natychmiast reagować. Veritas planuje wprowadzić tę nowinkę w systemie NetBackup 10+.
Οрա ሿቃշ
Ψиշамለг ኸβощахሁվը ሆиይуглика էвсևтвуδ
Λጧֆы у
Ωβеճоνու ηоձиηոвኟ ωхիξеχև
Оዠα пኄμутат
Щዕτерጺсаψ փωг шուսебрաμе
Ошиχε տоբաν բ խщοժ
Вθγе оሬуታосвак оχխթυтрխ
ሶтθጣебիн ոбриռаቱ
1. Przy określaniu pojemności pamięci masowej przyjmuje się: 1 GB = jeden miliard bajtów oraz 1 TB = jeden bilion bajtów. Rzeczywista pojemność pozostająca do dyspozycji użytkownika może być mniejsza i zależy od środowiska systemu operacyjnego. 2. W oparciu o szybkość odczytu. 1 MB/s = jeden milion bajtów na sekundę.
HDD i SSD to dwa główne rodzaje dysków, jakie stosuje się w komputerach osobistych – dużych PC i w laptopach. Obydwa dzielą się także na dyski wewnętrzne i zewnętrzne. Dyski HDD i SSD różnią się między innymi prędkością zapisu i odczytu. Wolisz większą pojemność za mniejszą cenę, czy może preferujesz ultra-szybki transfer danych, a pieniądze nie grają dla Ciebie roli? Tutaj dowiesz się, jak się od siebie różnią te dwa typy dysków. HDD i SSD znacząco różnią się w cenie, w oferowanych prędkościach. Jeśli posiadasz nowego laptopa, kupionego w przeciągu kilku ostatnich lat, istnieje spora szansa, że dysponujesz w nim właśnie dyskiem SSD. Natomiast w przypadku komputerów stacjonarnych często można jeszcze spotkać nośniki HDD – np: jako drugi dysk na dodatkowe dane. Przyjrzyjmy się najważniejszym różnicom, wadom i zaletom, zanim zdecydujesz się na zakup nośnika pamięci masowej. Co to jest dysk HDD?Dysk SSD – co to jest?Dyski hybrydowe – czym się charakteryzują?Jaki dysk wybrać HDD czy SSD?Wydajność dysków Co to jest dysk HDD? HDD to skrót od Hard Disk Drive i oznacza klasyczny dysk magnetyczny, w którym zapis danych odbywa się na wirujących talerzach wewnątrz komputera. Taki dysk złożony jest z ruchomego ramienia oraz kilku głowic (transduktorów) odpowiadających za odczyt i zapis danych na dysku. Ramię porusza się tuż przy powierzchni dysku, aby odczytywać dane, a proces ten można porównać do sposobu działania gramofonu odczytującego płyty winylowe (z tą różnicą, że głowica dysku nie dotyka fizycznie talerzy). Dyski HDD z reguły mieszczą się w 2,5-calowych lub 3,5-calowych obudowach – odpowiednio dla laptopów i dużych PC. Z końcem 2020 roku żaden nowy laptop sprzedawany w Europie Zachodniej nie posiada już dysku HDD (dane za firmą analityczną Context z lutego 2020). Ten typ dysku jest nadal dostępny dla komputerów stacjonarnych. Typowe pojemności HDD to obecnie pomiędzy 1 a 8TB (terabajtów), a według danych Seagate za ostatniego kwartał roku 2021, przeciętna pojemność sprzedawanych konsumentom dysków HDD wynosiła 5,4TB. Dysk SSD – co to jest? Solid State Drive, w skrócie SSD, to dysk zapisujący dane na połączonych ze sobą układach pamięci NAND flash. W przeciwieństwie do HDD, dyski SSD nie posiadają ruchomych części, a przez to mają znacznie mniejsze gabaryty, są całkowicie bezgłośne, a także o wiele dostępu jest tutaj znacznie krótszy niż w HDD, gdyż nie trzeba tutaj czekać na rozpędzenie się talerzy. Dyski SSD mogą być umieszczone w 2,5-calowych obudowach, ale także w postaci kart rozszerzeń do złącza PCIe, lub zamontowane bezpośrednio na płycie głównej w gniazdach typu Montowanie dysku SSD bezpośrednio na płycie głównej jest obecnie popularne w wielu laptopach z wysokiej półki, a także komputerach typu All-in-One. Dyski SSD najczęściej spotykamy w wariantach 128, 256, 512GB, 1TB, 2TB. Dyski hybrydowe – czym się charakteryzują? Interesującym, ale już coraz rzadziej stosowanym typem nośnika pamięci masowej są dyski hybrydowe, tzw. SSHD, łączące technologie HDD i SSD. Znajdziemy w nich więc tradycyjne talerze magnetyczne wraz z modułem pamięci NAND Flash. Tego typu dyski są szybsze od HDD, ale i tańsze od SSD. Komponenty SSD zapewnią szybszy rozruch komputera, jak również krótszy czas dostępu do plików systemowych czy też programów. Natomiast tradycyjny napęd magnetyczny służy do przechowywania plików, które nie wymagają natychmiastowego dostępu. W dobie coraz tańszych dysków SSD, napędy hybrydowe są już jednak obecnie rozwiązaniem dość rzadko spotykanym. SSD i HDD – który dysk wybrać? Jeśli zastanawiasz się, czy wybrać dysk SSD czy HDD, jest kilka czynników, które warto rozważyć. Cena – kiedyś dyski SSD były o wiele droższe niż HDD. Teraz jednak nośniki SSD są dostępne w znacznie przystępniejszych cenach, choć nadal zauważalnie wyższych. W praktyce za dysk SSD o pojemności 500GB zapłacimy tyle samo, co za 1TB HDD. Różnice w cenach mogą być bardziej odczuwalne przy wyższej pojemności. Szybkość – jednak to co zyskujemy w nośniku SSD to niewiarygodna szybkość uruchamiania systemu. Wynosi zaledwie kilka sekund, szybkość kopiowania plików i uruchamiania aplikacji. Typowy HDD kopiuje pliki z prędkością 15-30MB/s, podczas gdy tani SSD około 500MB/s Najnowsze NVMe SSD osiągają nawet 4GB na sekundę! Jeśli mówimy o grach, to również otrzymamy bardzo namacalne różnice. Czasy ładowania są drastycznie skrócone, co przekłada się na krótsze czekanie na załadowanie się poziomu, czy też wczytywanie zapisanego stanu gry. Wystarczy raz spróbować pograć na dysku SSD, by już nigdy nie chcieć wracać do HDD. HDD i SSD – wydajność Nośniki SSD są lepsze pod każdym względem w wydajności niż HDD, choć wcale nie oznacza to, że trzeba po nie sięgać w każdej sytuacji. Niestety dyski SSD, choć coraz tańsze, nadal jeszcze nie zbliżyły się do cen HDD. Dlatego jeśli planujesz używać dysku głównie do przechowywania dużej ilości danych, np. kolekcji zdjęć czy nagrań wideo – bardzo pojemny dysk HDD może okazać się rozsądnym rozwiązaniem, ze względu na niską cenę. Natomiast w każdym innym przypadku lepszy będzie dysk SSD Interesującą opcją może być także używanie dysków HDD i SSD razem. Wtedy to nośnik HDD może być wykorzystywany do przechowywania danych niewymagających szybkiego dostępu, natomiast SSD służyłby jako dysk systemowy, a także nośnik do gier oraz programów. Może Cię zainteresować: Przechowywanie danych w chmurze. Najlepsze dyski internetoweBootowalny pendrive z Windows 10 – jak zrobić?Pamięć DDR5 – co już wiadomo o pamięciach nowej generacji?Czym jest defragmentacja dysku? Jak ją wykonać?