Pozyskiwanie danych z internetu, z języka angielskiego fachowo nazywane web scraping, to nic innego jak wyszukiwanie i gromadzenie dużej ilości interesujących nas ogólnodostępnych danych zawartych na stronach internetowych.

Nie od dziś wiadome jest, że wraz z rozwojem znaczenia analizy ogromu otaczających nas informacji, coraz ważniejsze staje się ich odpowiednie pozyskanie i wyselekcjonowanie. Właściwe dane pozyskane w krótkim okresie są dziś równie cenne jak pieniądze, czas, zasoby ludzkie i czy moce produkcyjne przedsiębiorstw.

Można by mnożyć wypowiedzi kluczowych innowatorów współczesnego świata, podkreślających ich znaczenie.
Vinton Cerf, współtwórca internetu powiedział: „Informacje są nową walutą światową. Kto ma informacje, ten ma władzę.”, z kolei Bill Gates, współzałożyciel Microsoftu mawiał: „Nie chodzi już tylko o to, ile wiesz, ale także o to, jak efektywnie potrafisz znaleźć i korzystać z potrzebnych informacji.”

Kluczowe zatem jest, aby interesujące nas informacje pozyskać szybko, w zautomatyzowany sposób, który nie zmarnotrawi naszych wszystkich zasobów czasowych oraz w odpowiednio skrojonej wyselekcjonowanej formie, która pozwoli nam łatwo przekonwertować je do odpowiedniej analizy w dostępnych programach i arkuszach obliczeniowych.