Wyniki wyszukiwania dla "bigdata"
Tasowanie zewnętrzne: tasowanie dużej ilości danych z pamięci
Szukam sposobu na przetasowanie dużej ilości danych, które nie mieszczą się w pamięci (około 40 GB).Mam około 30 milionów wpisów o zmiennej długości, zapisan...
Hadoop 2 IOException tylko podczas próby otwarcia rzekomych plików pamięci podręcznej
Ostatnio zaktualizowałem do hadoop 2.2 (używając tego samouczka)tutaj).Moja główna klasa zadań wygląda tak i zgłasza wyjątek IOException:
Postgresql - wydajność używania tablicy w dużej bazie danych
Powiedzmy, że mamy tabelę z 6 milionami rekordów. Jest 16 kolumn całkowitych i kilka kolumn tekstowych. Jest to tabela tylko do odczytu, więc każda kolumna l...
Zalecany pakiet do bardzo dużego przetwarzania danych i uczenia maszynowego w R
Wygląda na to, że R jest naprawdę zaprojektowany do obsługi zestawów danych, które może w całości wciągnąć do pamięci. Jakie pakiety R są zalecane do przetwa...
Praca z dużymi danymi w python i numpy, niewystarczająca ilość pamięci RAM, jak zapisać częściowe wyniki na dysku?
Usiłuję zaimplementować algorytmy dla danych 1000-wymiarowych z 200k + punktami danych w Pythonie. Chcę używać bibliotek numpy, scipy, sklearn, networkx i in...
Nie można zainicjować wyjątku klastra podczas uruchamiania zadania na Hadoop 2
Pytanie jest powiązane z moim poprzednim pytaniem Wszystkie demony są uruchomione, jps pokazuje:
przyspieszyć przetwarzanie dużych zestawów wyników za pomocą rmongodb
Używam rmongodb, aby uzyskać każdy dokument w określonej kolekcji. Działa, ale pracuję z milionami małych dokumentów, potencjalnie 100M lub więcej. Korzystam...
Jak szybko eksportować dane z R do SQL Server
Standardowy pakiet RODBC
Odczytywanie dużych danych ze stałą szerokością
Jak mogę odczytać duże dane sformatowane przy stałej szerokości? czytamto pytanie i wypróbowałem kilka wskazówek, ale wszystkie odpowiedzi dotyczą danych roz...