Biblioteka Publiczna

w Dzielnicy BEMOWO m.st. Warszawy

book
book

Zaawansowane techniki przetwarzania języka naturalnego : od podstaw do modeli LLM i zastosowań biznesowych w Pythonie

Tytuł oryginału: "Mastering NLP from foundations to LLMs : apply advanced rule-based techniques to LLMs and solve real-world business problems using Python,".

Autor: Gazit, Lior.




Odkryj przyszłe trendy w NLP widziane oczami ekspertów!

Uczenie maszynowe i duże modele językowe rewolucjonizują biznes i nasze codzienne życie. Potencjał tych innowacji jest trudny do oszacowania: modele LLM stały się wiodącym trendem w tworzeniu aplikacji i analizie danych. Integrowanie zaawansowanych modeli z systemami produkcyjnymi bywa jednak często wymagającym, a nawet niewdzięcznym zadaniem.

Na

szczęście dzięki tej książce poradzisz sobie z takimi wyzwaniami! Najpierw zapoznasz się z matematycznymi podstawami algorytmów ML i NLP. Zaznajomisz się również z ogólnymi technikami uczenia maszynowego i dowiesz się, w jakim stopniu dotyczą one dużych modeli językowych. Kolejnym zagadnieniem będzie przetwarzanie danych tekstowych, w tym metody przygotowywania tekstu do analizy, po czym przyswoisz zasady klasyfikowania tekstu. Ponadto poznasz zaawansowane aspekty teorii, projektowania i stosowania LLM, wreszcie ― przyszłe trendy w NLP. Aby zdobyć praktyczne umiejętności, będziesz ćwiczyć na przykładach rzeczywistych zagadnień biznesowych i rozwiązań NLP.

W książce:
- podstawy matematyczne uczenia maszynowego i NLP
- zaawansowane techniki przetwarzania wstępnego i analizy danych tekstowych
- projektowanie systemów ML i NLP w Pythonie
- przetwarzanie tekstu z użyciem metod uczenia głębokiego
- modele LLM i ich implementacja w różnych aplikacjach AI
- trendy w NLP i potencjał tej technologii

Zobacz pełny opis
Odpowiedzialność:Lior Gazit, Meysam Ghaffari ; słowo wstępne: Asha Saxena ; przekład: Grzegorz Werner.
Hasła:Duży model językowy (LLM)
Przetwarzanie języka naturalnego (NLP)
Python (język programowania)
Uczenie maszynowe
Podręcznik
Adres wydawniczy:Gliwice : Helion, copyright 2025.
Opis fizyczny:320 stron : ilustracje, wykresy ; 24 cm.
Uwagi:Na stronie tytułowej i okładce także nazwa wydawcy oryginału: Packt. W książce także ISBN oryginału.
Forma gatunek:Książki. Publikacje fachowe.
Dziedzina:Gospodarka, ekonomia, finanse
Informatyka i technologie informacyjne
Powstanie dzieła:2024 r.
Twórcy:Ghaffari, Meysam. Autor

Saxena, Asha. Wstęp

Werner, Grzegorz. Tłumaczenie

Odbiorcy:Analitycy danych. Informatycy i informatyczki.
Powiązane zestawienia:Sztuczna inteligencja
Informatyka
Sfinansowano z Budżetu Obywatelskiego 2025 r. - Projekt nr 884
Skocz do:Dodaj recenzje, komentarz
Spis treści:

  1. Rozdział 1. Nawigowanie po krajobrazie NLP - kompleksowe wprowadzenie
  2. Dla kogo jest ta książka?
  3. Co to jest przetwarzanie języka naturalnego?
  4. Wstępne strategie maszynowego przetwarzania języka naturalnego
  5. Zwycięska synergia - połączenie NLP i ML
  6. Wprowadzenie do matematyki i statystyki w NLP
  7. Podsumowanie
  8. Pytania i odpowiedzi
  9. Rozdział 2. Algebra liniowa, prawdopodobieństwo i statystyka w uczeniu maszynowym i NLP
  10. Wprowadzenie do algebry liniowej
  11. Wartości i wektory własne
  12. Prawdopodobieństwo w uczeniu maszynowym
  13. Podsumowanie
  14. Dalsza lektura
  15. Bibliografia
  16. Rozdział 3. Wykorzystanie potencjału uczenia maszynowego w NLP
  17. Wymagania techniczne
  18. Eksploracja danych
  19. Typowe modele uczenia maszynowego
  20. Niedostateczne i nadmierne dopasowanie modelu
  21. Dzielenie danych
  22. Dostrajanie hiperparametrów
  23. Modele zespołowe
  24. Dane niezrównoważone
  25. Dane skorelowane
  26. Podsumowanie
  27. Bibliografia
  28. Rozdział 4. Usprawnianie technik wstępnego przetwarzania tekstu pod kątem optymalnej wydajności NLP
  29. Wymagania techniczne
  30. Normalizacja tekstu
  31. Rozpoznawanie nazwanych encji (NER)
  32. Oznaczanie części mowy
  33. Potok wstępnego przetwarzania tekstu
  34. Podsumowanie
  35. Rozdział 5. Klasyfikowanie tekstu - wykorzystanie tradycyjnych technik uczenia maszynowego
  36. Wymagania techniczne
  37. Typy klasyfikacji tekstu
  38. Klasyfikacja tekstu metodą TF-IDF
  39. Klasyfikacja tekstu z użyciem Word2Vec
  40. Modelowanie tematyczne - praktyczne zastosowanie nienadzorowanej klasyfikacji tekstu
  41. Przykładowy scenariusz - projekt systemu ML do klasyfikacji NLP w notatniku Jupytera
  42. Podsumowanie
  43. Rozdział 6. Nowe spojrzenie na klasyfikowanie tekstu - językowe modele uczenia głębokiego
  44. Wymagania techniczne
  45. Podstawy uczenia głębokiego
  46. Architektury sieci neuronowych
  47. Problemy z trenowaniem sieci neuronowych
  48. Modele językowe
  49. Transformery
  50. Duże modele językowe
  51. Wyzwania związane z trenowaniem modeli językowych
  52. Problemy związane z używaniem GPT-3
  53. Podsumowanie
  54. Rozdział 7. Duże modele językowe - teoria, projektowanie i implementacja
  55. Wymagania techniczne
  56. Co to są duże modele językowe i czym różnią się od zwykłych modeli językowych?
  57. Co wyróżnia modele LLM?
  58. Powody tworzenia i używania modeli LLM
  59. Problemy związane z tworzeniem modeli LLM
  60. Typy modeli LLM
  61. Przykładowe projekty nowoczesnych modeli LLM
  62. Podsumowanie
  63. Źródła
  64. Rozdział 8. Dostęp do dużych modeli językowych - zaawansowana konfiguracja i integracja z RAG
  65. Wymagania techniczne
  66. Konfigurowanie aplikacji LLM - oparte na API modele o zamkniętym kodzie źródłowym
  67. Inżynieria podpowiedzi i inicjalizowanie GPT
  68. Konfigurowanie aplikacji LLM - lokalne modele o otwartym kodzie źródłowym
  69. Stosowanie modeli LLM z ekosystemu Hugging Face z użyciem Pythona
  70. Zaawansowane projektowanie systemów - RAG i LangChain
  71. Omówienie prostej konfiguracji LangChain w notatniku Jupytera
  72. Podsumowanie
  73. Rozdział 9. Eksplorowanie granic - zaawansowane zastosowania i innowacje w dziedzinie LLM
  74. Wymagania techniczne
  75. Zwiększanie skuteczności modeli LLM z użyciem RAG i LangChain - funkcje zaawansowane
  76. skuteczności modeli LLM
  77. Zaawansowane użycie łańcuchów
  78. modelowi LLM zwrócenia wyników w określonym formacie
  79. Automatyczne pobieranie informacji z różnych źródeł internetowych
  80. Kompresja podpowiedzi i ograniczanie kosztów użycia API
  81. Wiele agentów - tworzenie zespołu współpracujących modeli LLM
  82. Podsumowanie
  83. Rozdział 10. Na fali - przeszłe, teraźniejsze i przyszłe trendy kształtowane przez modele LLM i sztuczną inteligencję
  84. Kluczowe trendy techniczne związane z modelami LLM i AI
  85. Duże zbiory danych i ich niezatarty wpływ na NLP i modele LLM
  86. Ewolucja dużych modeli językowych - cel, wartość i wpływ
  87. Trendy kulturowe w NLP i modelach LLM
  88. NLP i modele LLM w świecie biznesu
  89. Trendy behawioralne wywoływane przez AI i model LLM - aspekt społeczny
  90. Podsumowanie
  91. Rozdział 11. Okiem branży - opinie i prognozy ekspertów światowej klasy
  92. Prezentacja ekspertów
  93. Nitzan Mekel-Bobrov, PhD
  94. David Sontag, PhD
  95. John D. Halamka, M.D., M.S.
  96. Xavier Amatriain, PhD
  97. Melanie Garson, PhD
  98. Nasze pytania i odpowiedzi ekspertów
  99. Nitzan Mekel-Bobrov
  100. David Sontag
  101. John D. Halamka
  102. Xavier Amatriain
  103. Melanie Garson

Zobacz spis treści



Sprawdź dostępność, zarezerwuj (zamów):

(kliknij w nazwę placówki - więcej informacji)

Czyt. nr 17
ul. Powstańców Śląskich 17

Sygnatura: 004
Numer inw.: 7198
Dostępność: można wypożyczyć na 30 dni

schowekzamów

Dodaj komentarz do pozycji:

Swoją opinię można wyrazić po uprzednim zalogowaniu.