diff --git a/i18n/es/docusaurus-plugin-content-docs-quickstarts/current/manage-data/fastload.md b/i18n/es/docusaurus-plugin-content-docs-quickstarts/current/manage-data/fastload.md
new file mode 100644
index 0000000000..ded1ca5388
--- /dev/null
+++ b/i18n/es/docusaurus-plugin-content-docs-quickstarts/current/manage-data/fastload.md
@@ -0,0 +1,288 @@
+---
+sidebar_position: 20
+author: Adam Tworkiewicz
+email: adam.tworkiewicz@teradata.com
+page_last_update: 6 de abril de 2022
+description: Cargue datos en Vantage de manera eficiente utilizando Teradata Fastload.
+keywords: [almacenes de datos, separación de almacenamiento informático, teradata, vantage, plataforma de datos en la nube, almacenamiento de objetos, inteligencia empresarial, análisis empresarial, Fastload]
+---
+import Tabs from '@theme/Tabs';
+import TabItem from '@theme/TabItem';
+
+# Ejecutar grandes cargas masivas de manera eficiente con Fastload
+
+## Aviso de obsolescencia
+:::important
+Este tutorial describe la utilidad `Fastload`. La utilidad ha quedado obsoleta. Para nuevas implementaciones, considere utilizar [Teradata Parallel Transporter (TPT)](https://docs.teradata.com/search/documents?query=Teradata+Parallel+Transporter+Quick+Start+Guide&sort=last_update&virtual-field=title_only&content-lang=en-US).
+:::
+
+## Descripción general
+
+A menudo tenemos la necesidad de mover grandes volúmenes de datos a Vantage. Teradata ofrece la utilidad `Fastload`, que puede cargar de manera eficiente grandes cantidades de datos en Teradata Vantage. Este tutorial demuestra cómo usar `Fastload`. En este escenario, cargaremos más de 300.000 registros, más de 40 MB de datos, en un par de segundos.
+
+## Requisitos previos
+
+import ClearscapeDocsNote from '../_partials/vantage_clearscape_analytics.mdx'
+
+* Acceso a una instancia de Teradata Vantage.
+
+* Descargue Teradata Tools and Utilities (TTU) - plataformas compatibles: [Windows](https://downloads.teradata.com/download/tools/teradata-tools-and-utilities-windows-installation-package), [MacOS](https://downloads.teradata.com/download/tools/teradata-tools-and-utilities-macos-installation-package), [Linux](https://downloads.teradata.com/download/tools/teradata-tools-and-utilities-linux-installation-package-0) (requires registration).
+
+## Install TTU
+
+
+ Descomprima el archivo descargado y ejecute `setup.exe`.
+
+
+ Descomprima el archivo descargado y ejecute `TeradataToolsAndUtilitiesXX.XX.XX.pkg`.
+
+
+ Descomprima el archivo descargado, vaya al directorio descomprimido y ejecute:
+ ```bash
+ ./setup.sh a
+ ```
+
+
+
+
+## Obtener datos de muestra
+
+Trabajaremos con las declaraciones de impuestos de EE. UU. para organizaciones sin fines de lucro. Las declaraciones de impuestos de organizaciones sin fines de lucro son datos públicos. El Servicio de Impuestos Internos de EE. UU. los publica en el depósito S3. Veamos un resumen de las presentaciones de 2020: `https://s3.amazonaws.com/irs-form-990/index_2020.csv`. Puede utilizar su navegador, `wget` o `curl` para guardar el archivo localmente.
+
+## Crear una base de datos
+
+Creemos una base de datos en Vantage. Utilice su herramienta SQL favorita para ejecutar la siguiente consulta:
+
+```sql
+CREATE DATABASE irs
+AS PERMANENT = 120e6, -- 120MB
+ SPOOL = 120e6; -- 120MB
+```
+
+## Ejecutar carga rápida
+
+Ahora ejecutaremos `Fastload`. `Fastload` es una herramienta de línea de comandos que es muy eficiente para cargar grandes cantidades de datos en Vantage. `Fastload`, para ser rápido, tiene varias restricciones. Solo puede completar tablas vacías; no se admiten inserciones en tablas ya completadas. No admite tablas con índices secundarios. Además, no insertará registros duplicados, incluso si una tabla es una tabla `MULTISET`. Para obtener la lista completa de restricciones, consulte [Referencia de Teradata® `Fastload`](https://docs.teradata.com/r/hBBrRBhRY0MFN4~xApbUqw/root).
+
+Fastload tiene su propio lenguaje de programación. El lenguaje le permite preparar la base de datos con comandos SQL arbitrarios, declarar la fuente de entrada y definir cómo se deben insertar los datos en Vantage. La herramienta admite el modo interactivo y por lotes. En esta sección, usaremos el modo interactivo.
+
+Comencemos `Fastload` en el modo interactivo:
+
+```bash
+fastload
+```
+
+Primero, iniciemos sesión en una base de datos Vantage. Tengo un Vantage Express ejecutándose localmente, así que usaré `localhost` como nombre de host y `dbc` como nombre de usuario y contraseña:
+
+```bash
+LOGON localhost/dbc,dbc;
+```
+
+Ahora que hemos iniciado sesión, voy a preparar la base de datos. Estoy cambiando a la base de datos `irs` y asegurándome de que la tabla de destino `irs_returns` y las tablas de error (más sobre las tablas de error más adelante) no existan:
+
+```sql
+DATABASE irs;
+DROP TABLE irs_returns;
+DROP TABLE irs_returns_err1;
+DROP TABLE irs_returns_err2;
+```
+
+Ahora crearé una tabla vacía que pueda contener los elementos de datos del archivo csv.
+
+```sql
+CREATE MULTISET TABLE irs_returns (
+ return_id INT,
+ filing_type VARCHAR(5) CHARACTER SET LATIN NOT CASESPECIFIC,
+ ein INT,
+ tax_period INT,
+ sub_date VARCHAR(100) CHARACTER SET LATIN NOT CASESPECIFIC,
+ taxpayer_name VARCHAR(100) CHARACTER SET LATIN NOT CASESPECIFIC,
+ return_type VARCHAR(5) CHARACTER SET LATIN NOT CASESPECIFIC,
+ dln BIGINT,
+ object_id BIGINT
+)
+PRIMARY INDEX ( return_id );
+```
+
+Ahora que la tabla de destino ha sido preparada, podemos comenzar a cargar los datos. La directiva `ERRORFILES` define archivos de error. Los archivos de error son en realidad tablas que `Fastload` crea. La primera tabla contiene información sobre la conversión de datos y otras cuestiones. La segunda tabla realiza un seguimiento de los problemas de unicidad de los datos, por ejemplo, infracciones de clave primaria.
+
+```sql
+BEGIN LOADING irs_returns
+ ERRORFILES irs_returns_err1, irs_returns_err2;
+```
+
+Le indicamos a `Fastload` que guarde un punto de control cada 10.000 filas. Es útil en caso de que tengamos que reiniciar nuestro trabajo. Podrá reanudarse desde el último punto de control.
+
+
+```sql
+ CHECKPOINT 10000;
+```
+
+También debemos decirle a `Fastload` que omita la primera fila del archivo CSV para comenzar en el registro 2. Esto se debe a que la primera fila contiene encabezados de columna.
+
+```sql
+ RECORD 2;
+```
+
+`Fastload` también necesita saber que es un archivo separado por comas:
+
+```sql
+ SET RECORD VARTEXT ",";
+```
+
+El bloque `DEFINE` especifica qué columnas deberíamos esperar:
+
+```sql
+ DEFINE in_return_id (VARCHAR(19)),
+ in_filing_type (VARCHAR(5)),
+ in_ein (VARCHAR(19)),
+ in_tax_period (VARCHAR(19)),
+ in_sub_date (VARCHAR(22)),
+ in_taxpayer_name (VARCHAR(100)),
+ in_return_type (VARCHAR(5)),
+ in_dln (VARCHAR(19)),
+ in_object_id (VARCHAR(19)),
+```
+
+El bloque `DEFINE` también tiene el atributo `FILE` que apunta al archivo con los datos. Reemplace `FILE = /tmp/index_2020.csv;` con la ubicación del archivo `index_2020.csv`:
+```sql
+ FILE = /tmp/index_2020.csv;
+```
+
+Finalmente, definimos la instrucción INSERT que colocará los datos en la base de datos y cerramos el bloque `LOADING`:
+
+```sql
+ INSERT INTO irs_returns (
+ return_id,
+ filing_type,
+ ein,
+ tax_period,
+ sub_date,
+ taxpayer_name,
+ return_type,
+ dln,
+ object_id
+ ) VALUES (
+ :in_return_id,
+ :in_filing_type,
+ :in_ein,
+ :in_tax_period,
+ :in_sub_date,
+ :in_taxpayer_name,
+ :in_return_type,
+ :in_dln,
+ :in_object_id
+ );
+END LOADING;
+```
+Una vez finalizado el trabajo, nos desconectamos de la base de datos para limpiar las cosas.
+
+```sql
+LOGOFF;
+```
+
+Así es como se ve el guión completo:
+```sql
+LOGON localhost/dbc,dbc;
+
+DATABASE irs;
+DROP TABLE irs_returns;
+DROP TABLE irs_returns_err1;
+DROP TABLE irs_returns_err2;
+
+CREATE MULTISET TABLE irs_returns (
+ return_id INT,
+ filing_type VARCHAR(5) CHARACTER SET LATIN NOT CASESPECIFIC,
+ ein INT,
+ tax_period INT,
+ sub_date VARCHAR(100) CHARACTER SET LATIN NOT CASESPECIFIC,
+ taxpayer_name VARCHAR(100) CHARACTER SET LATIN NOT CASESPECIFIC,
+ return_type VARCHAR(5) CHARACTER SET LATIN NOT CASESPECIFIC,
+ dln BIGINT,
+ object_id BIGINT
+)
+PRIMARY INDEX ( return_id );
+
+BEGIN LOADING irs_returns
+ ERRORFILES irs_returns_err1, irs_returns_err2;
+ CHECKPOINT 10000;
+ RECORD 2;
+ SET RECORD VARTEXT ",";
+
+ DEFINE in_return_id (VARCHAR(19)),
+ in_filing_type (VARCHAR(5)),
+ in_ein (VARCHAR(19)),
+ in_tax_period (VARCHAR(19)),
+ in_sub_date (VARCHAR(22)),
+ in_taxpayer_name (VARCHAR(100)),
+ in_return_type (VARCHAR(5)),
+ in_dln (VARCHAR(19)),
+ in_object_id (VARCHAR(19)),
+ FILE = /tmp/index_2020.csv;
+
+ INSERT INTO irs_returns (
+ return_id,
+ filing_type,
+ ein,
+ tax_period,
+ sub_date,
+ taxpayer_name,
+ return_type,
+ dln,
+ object_id
+ ) VALUES (
+ :in_return_id,
+ :in_filing_type,
+ :in_ein,
+ :in_tax_period,
+ :in_sub_date,
+ :in_taxpayer_name,
+ :in_return_type,
+ :in_dln,
+ :in_object_id
+ );
+END LOADING;
+
+LOGOFF;
+```
+
+## Por lotes
+
+Para ejecutar nuestro ejemplo en modo por lotes, simplemente guarde todas las instrucciones en un solo archivo y ejecute:
+
+
+```bash
+fastload < file_with_instruction.fastload
+```
+
+## `Fastload` vs. NOS
+
+En nuestro caso, el archivo está en un depósito S3. Eso significa que podemos usar Native Object Storage (NOS) para ingerir los datos:
+
+```sql
+-- create an S3-backed foreign table
+CREATE FOREIGN TABLE irs_returns_nos
+ USING ( LOCATION('/s3/s3.amazonaws.com/irs-form-990/index_2020.csv') );
+
+-- load the data into a native table
+CREATE MULTISET TABLE irs_returns_nos_native
+ (RETURN_ID, FILING_TYPE, EIN, TAX_PERIOD, SUB_DATE, TAXPAYER_NAME)
+AS (
+ SELECT RETURN_ID, FILING_TYPE, EIN, TAX_PERIOD, SUB_DATE, TAXPAYER_NAME FROM irs_returns_nos
+) WITH DATA
+NO PRIMARY INDEX;
+```
+
+La solución NOS es práctica porque no depende de herramientas adicionales. Se puede implementar usando solo SQL. Funciona bien, especialmente para implementaciones Vantage con una gran cantidad de AMP, ya que las tareas NOS se delegan a AMP y se ejecutan en paralelo. Además, dividir los datos del almacenamiento de objetos en varios archivos puede mejorar aún más el rendimiento.
+
+## Resumen
+
+Este tutorial demostró cómo incorporar grandes cantidades de datos en Vantage. Cargamos cientos de miles de registros en Vantage en un par de segundos usando `Fastload`.
+
+## Otras lecturas
+
+* [Referencia de Teradata® `Fastload`](https://docs.teradata.com/r/hBBrRBhRY0MFN4~xApbUqw/root)
+* [Consultar datos almacenados en el almacenamiento de objetos](../manage-data/nos.md)
+
+import CommunityLinkPartial from '../_partials/community_link.mdx';
+
+
\ No newline at end of file
diff --git a/i18n/ja/docusaurus-plugin-content-docs-quickstarts/current/manage-data/fastload.md b/i18n/ja/docusaurus-plugin-content-docs-quickstarts/current/manage-data/fastload.md
new file mode 100644
index 0000000000..f5322196c0
--- /dev/null
+++ b/i18n/ja/docusaurus-plugin-content-docs-quickstarts/current/manage-data/fastload.md
@@ -0,0 +1,289 @@
+---
+sidebar_position: 20
+author: Adam Tworkiewicz
+email: adam.tworkiewicz@teradata.com
+page_last_update: 2022年4月6日
+description: Fastload を使用して大規模なバルクロードを効率的に実行する方法
+keywords: [data warehouses, compute storage separation, teradata, vantage, cloud data platform, object storage, business intelligence, enterprise analytics, Fastload]
+---
+import Tabs from '@theme/Tabs';
+import TabItem from '@theme/TabItem';
+
+# Fastload を使用して大規模なバルクロードを効率的に実行する方法
+
+## 廃止のお知らせ
+:::important
+このハウツーでは、`Fastload` ユーティリティについて説明しています。このユーティリティは廃止されました。新しい実装では、[Teradata Parallel Transporter(TPT)](https://docs.teradata.com/search/documents?query=Teradata+Parallel+Transporter+Quick+Start+Guide&sort=last_update&virtual-field=title_only&content-lang=en-US) の使用を検討してください。
+:::
+
+## 概要
+
+Vantageに大量のデータを移動させるニーズはよくあります。Teradataは、大量のデータをTeradata Vantageに効率的にロードできる `Fastload` ユーティリティを提供します 。このハウツーでは、`Fastload` の使用方法を説明します。このシナリオでは30万件以上のレコードをもつ40MB以上のデータを数秒でロードします。
+
+## 前提条件
+
+import ClearscapeDocsNote from '../_partials/vantage_clearscape_analytics.mdx'
+
+* Teradata Vantageインスタンスへのアクセス。
+
+* Teradata Tools and Utilities (TTU) をダウンロード - サポートされているプラットフォーム: [Windows](https://downloads.teradata.com/download/tools/teradata-tools-and-utilities-windows-installation-package), [MacOS](https://downloads.teradata.com/download/tools/teradata-tools-and-utilities-macos-installation-package), [Linux](https://downloads.teradata.com/download/tools/teradata-tools-and-utilities-linux-installation-package-0) (登録が必要です)。
+
+
+
+## TTUのインストール
+
+
+ ダウンロードしたファイルを解凍し、`setup.exe` を実行します。
+
+
+ ダウンロードしたファイルを解凍し、`TeradataToolsAndUtilitiesXX.XX.XX.pkg` を実行します。
+
+
+ ダウンロードしたファイルを解凍し、解凍したディレクトリに移動して次のコマンドを実行します。
+ ```bash
+ ./setup.sh a
+ ```
+
+
+
+
+## サンプルデータを入手する
+
+非営利団体の米国税務申告を扱います。非営利の納税申告は公開データです。アメリカ内国歳入庁は、これらを S3 バケットで公開します。2020 年の提出書類のまとめを見てみましょう: `https://s3.amazonaws.com/irs-form-990/index_2020.csv`。ブラウザ、`wget`、または `curl` を使用して、ファイルをローカルに保存できます。
+
+## データベースを作成する
+
+Vantageでデータベースを作成しましょう。お気に入りの SQL ツールを使用して、以下のクエリーを実行します。
+
+```sql
+CREATE DATABASE irs
+AS PERMANENT = 120e6, -- 120MB
+ SPOOL = 120e6; -- 120MB
+```
+
+## Fastloadを実行する
+
+これから `Fastload` を実行する。`Fastload` は、大量のデータを Vantage にアップロードする際に非常に効率的なコマンドラインツールです。`Fastload` は、高速にするためにいくつかの制限が設けられています。空のテーブルのみを設定でき、すでに設定されているテーブルへの挿入はサポートされていません。セカンダリ インデックスを持つテーブルはサポートされません。また、テーブルが `MULTISET` テーブルであっても、重複レコードは挿入されない。 制限の完全なリストについては、 [Teradata® `Fastload`リファレンス](https://docs.teradata.com/r/hBBrRBhRY0MFN4~xApbUqw/root) を参照してください。
+
+Fastload には独自のスクリプト言語があります。この言語を使用すると、任意の SQLコマンドを使用してデータベースを準備し、入力ソースを宣言し、Vantage にデータを挿入する方法を定義できます。このツールは対話型モードとバッチ モードの両方をサポートしています。このセクションでは、対話型モードを使用します。
+
+対話型モードで `Fastload` を開始しましょう:
+
+```bash
+fastload
+```
+
+まず、Vantageデータベースにログインします。Vantage Express をローカルで実行しているので、ホスト名として `localhost` を使用し、ユーザー名とパスワードとして `dbc` を使用します。
+
+```bash
+LOGON localhost/dbc,dbc;
+```
+
+ログインできたので、データベースを準備します。 `irs` データベースに切り替えて、ターゲット テーブル `irs_returns` とエラー テーブル (エラー テーブルについては後で詳しく説明します) が存在しないことを確認します。
+
+```sql
+DATABASE irs;
+DROP TABLE irs_returns;
+DROP TABLE irs_returns_err1;
+DROP TABLE irs_returns_err2;
+```
+
+次に、csv ファイルのデータ要素を保持できる空のテーブルを作成します。
+
+```sql
+CREATE MULTISET TABLE irs_returns (
+ return_id INT,
+ filing_type VARCHAR(5) CHARACTER SET LATIN NOT CASESPECIFIC,
+ ein INT,
+ tax_period INT,
+ sub_date VARCHAR(100) CHARACTER SET LATIN NOT CASESPECIFIC,
+ taxpayer_name VARCHAR(100) CHARACTER SET LATIN NOT CASESPECIFIC,
+ return_type VARCHAR(5) CHARACTER SET LATIN NOT CASESPECIFIC,
+ dln BIGINT,
+ object_id BIGINT
+)
+PRIMARY INDEX ( return_id );
+```
+
+ターゲット テーブルが準備できたので、データのロードを開始できます。`ERRORFILES` ディレクティブはエラー ファイルを定義します。エラーファイルは、実際には `Fastload` が作成するテーブルです。 最初のテーブルには、データ変換とその他の問題に関する情報が含まれています。2 番目のテーブルは、主キー違反などのデータの固有性の問題を追跡します。
+
+```sql
+BEGIN LOADING irs_returns
+ ERRORFILES irs_returns_err1, irs_returns_err2;
+```
+
+`Fastload` に 10k 行ごとにチェックポイントを保存するように指示します。ジョブを再開する必要がある場合に便利です。最後のチェックポイントから再開できるようになります。
+
+
+```sql
+ CHECKPOINT 10000;
+```
+
+また、CSV ファイルの最初の行をレコード 2 からスキップするように `Fastload` に指示する必要があります。これは、最初の行には列ヘッダーが含まれているためです。
+
+```sql
+ RECORD 2;
+```
+
+`Fastload` また、それがカンマ区切りファイルであることも認識する必要があります。
+
+```sql
+ SET RECORD VARTEXT ",";
+```
+
+`DEFINE` ブロックは、どの列を期待するかを指定します。
+
+```sql
+ DEFINE in_return_id (VARCHAR(19)),
+ in_filing_type (VARCHAR(5)),
+ in_ein (VARCHAR(19)),
+ in_tax_period (VARCHAR(19)),
+ in_sub_date (VARCHAR(22)),
+ in_taxpayer_name (VARCHAR(100)),
+ in_return_type (VARCHAR(5)),
+ in_dln (VARCHAR(19)),
+ in_object_id (VARCHAR(19)),
+```
+
+`DEFINE`ブロックには、データが含まれるファイルを指す `FILE` 属性もあります。 `FILE = /tmp/index_2020.csv;` を `index_2020.csv` ファイルの格納場所に置き換えます。
+
+```sql
+ FILE = /tmp/index_2020.csv;
+```
+
+最後に、データベースにデータを入れる INSERT 文を定義し、`LOADING` ブロックを閉じます。
+
+```sql
+ INSERT INTO irs_returns (
+ return_id,
+ filing_type,
+ ein,
+ tax_period,
+ sub_date,
+ taxpayer_name,
+ return_type,
+ dln,
+ object_id
+ ) VALUES (
+ :in_return_id,
+ :in_filing_type,
+ :in_ein,
+ :in_tax_period,
+ :in_sub_date,
+ :in_taxpayer_name,
+ :in_return_type,
+ :in_dln,
+ :in_object_id
+ );
+END LOADING;
+```
+ジョブが終了したら、データベースからログオフしてクリーンアップする。
+
+```sql
+LOGOFF;
+```
+
+スクリプト全体は以下のようになります。
+```sql
+LOGON localhost/dbc,dbc;
+
+DATABASE irs;
+DROP TABLE irs_returns;
+DROP TABLE irs_returns_err1;
+DROP TABLE irs_returns_err2;
+
+CREATE MULTISET TABLE irs_returns (
+ return_id INT,
+ filing_type VARCHAR(5) CHARACTER SET LATIN NOT CASESPECIFIC,
+ ein INT,
+ tax_period INT,
+ sub_date VARCHAR(100) CHARACTER SET LATIN NOT CASESPECIFIC,
+ taxpayer_name VARCHAR(100) CHARACTER SET LATIN NOT CASESPECIFIC,
+ return_type VARCHAR(5) CHARACTER SET LATIN NOT CASESPECIFIC,
+ dln BIGINT,
+ object_id BIGINT
+)
+PRIMARY INDEX ( return_id );
+
+BEGIN LOADING irs_returns
+ ERRORFILES irs_returns_err1, irs_returns_err2;
+ CHECKPOINT 10000;
+ RECORD 2;
+ SET RECORD VARTEXT ",";
+
+ DEFINE in_return_id (VARCHAR(19)),
+ in_filing_type (VARCHAR(5)),
+ in_ein (VARCHAR(19)),
+ in_tax_period (VARCHAR(19)),
+ in_sub_date (VARCHAR(22)),
+ in_taxpayer_name (VARCHAR(100)),
+ in_return_type (VARCHAR(5)),
+ in_dln (VARCHAR(19)),
+ in_object_id (VARCHAR(19)),
+ FILE = /tmp/index_2020.csv;
+
+ INSERT INTO irs_returns (
+ return_id,
+ filing_type,
+ ein,
+ tax_period,
+ sub_date,
+ taxpayer_name,
+ return_type,
+ dln,
+ object_id
+ ) VALUES (
+ :in_return_id,
+ :in_filing_type,
+ :in_ein,
+ :in_tax_period,
+ :in_sub_date,
+ :in_taxpayer_name,
+ :in_return_type,
+ :in_dln,
+ :in_object_id
+ );
+END LOADING;
+
+LOGOFF;
+```
+
+## Batch mode
+
+この例をバッチモードで実行するには、すべての命令を1つのファイルに保存して実行するだけです。
+
+```bash
+fastload < file_with_instruction.fastload
+```
+
+## `Fastload` vs. NOS
+
+この例では、ファイルは S3 バケット内にあります。つまり、Native Object Storage (NOS) を使用してデータを取り込むことができます。
+
+```sql
+-- create an S3-backed foreign table
+CREATE FOREIGN TABLE irs_returns_nos
+ USING ( LOCATION('/s3/s3.amazonaws.com/irs-form-990/index_2020.csv') );
+
+-- load the data into a native table
+CREATE MULTISET TABLE irs_returns_nos_native
+ (RETURN_ID, FILING_TYPE, EIN, TAX_PERIOD, SUB_DATE, TAXPAYER_NAME)
+AS (
+ SELECT RETURN_ID, FILING_TYPE, EIN, TAX_PERIOD, SUB_DATE, TAXPAYER_NAME FROM irs_returns_nos
+) WITH DATA
+NO PRIMARY INDEX;
+```
+
+NOS ソリューションは追加のツールに依存しないため便利です。SQLのみで実装可能です。NOS タスクが AMP に委任され、並行して実行されるため、特に多数の AMP を備えた Vantage デプロイメント環境では良好なパフォーマンスを発揮します。また、オブジェクト ストレージ内のデータを複数のファイルに分割すると、パフォーマンスがさらに向上する可能性があります。
+
+## まとめ
+このハウツーでは、大量のデータを Vantage に取り込む方法を説明しました。`Fastload` を使用して、数十万のレコードを Vantage に数秒でロードしました。
+
+## さらに詳しく
+
+* [Teradata® `Fastload` リファレンス](https://docs.teradata.com/r/hBBrRBhRY0MFN4~xApbUqw/root)
+* [オブジェクトストレージに保存されたクエリーデータ](../manage-data/nos.md)
+
+import CommunityLinkPartial from '../_partials/community_link.mdx';
+
+
\ No newline at end of file
diff --git a/quickstarts/manage-data/fastload.md b/quickstarts/manage-data/fastload.md
new file mode 100644
index 0000000000..e5d19e8d1c
--- /dev/null
+++ b/quickstarts/manage-data/fastload.md
@@ -0,0 +1,290 @@
+---
+sidebar_position: 20
+author: Adam Tworkiewicz
+email: adam.tworkiewicz@teradata.com
+page_last_update: April 6th, 2022
+description: Run large bulkloads efficiently with Fastload
+keywords: [data warehouses, compute storage separation, teradata, vantage, cloud data platform, object storage, business intelligence, enterprise analytics, Fastload]
+---
+import Tabs from '@theme/Tabs';
+import TabItem from '@theme/TabItem';
+
+# Run large bulkloads efficiently with Fastload
+
+## Deprecation notice
+:::important
+This how-to describes `Fastload` utility. The utility has been deprecated. For new implementations consider using [Teradata Parallel Transporter (TPT)](https://docs.teradata.com/search/documents?query=Teradata+Parallel+Transporter+Quick+Start+Guide&sort=last_update&virtual-field=title_only&content-lang=en-US).
+:::
+
+## Overview
+
+We often have a need to move large volumes of data into Vantage. Teradata offers `Fastload` utility that can efficiently load large amounts of data into Teradata Vantage. This how-to demonstrates how to use `Fastload`. In this scenario, we will load over 300k records, over 40MB of data, in a couple of seconds.
+
+
+## Prerequisites
+
+import ClearscapeDocsNote from '../_partials/vantage_clearscape_analytics.mdx'
+
+* Access to a Teradata Vantage instance
+
+* Download Teradata Tools and Utilities (TTU) - supported platforms: [Windows](https://downloads.teradata.com/download/tools/teradata-tools-and-utilities-windows-installation-package), [MacOS](https://downloads.teradata.com/download/tools/teradata-tools-and-utilities-macos-installation-package), [Linux](https://downloads.teradata.com/download/tools/teradata-tools-and-utilities-linux-installation-package-0) (requires registration).
+
+## Install TTU
+
+
+ Unzip the downloaded file and run `setup.exe`.
+
+
+ Unzip the downloaded file and run `TeradataToolsAndUtilitiesXX.XX.XX.pkg`.
+
+
+ Unzip the downloaded file, go to the unzipped directory and run:
+ ```bash
+ ./setup.sh a
+ ```
+
+
+
+
+## Get Sample data
+
+We will be working with the US tax fillings for nonprofit organizations. Nonprofit tax filings are public data. The US Internal Revenue Service publishes them in S3 bucket. Let's grab a summary of filings for 2020: `https://s3.amazonaws.com/irs-form-990/index_2020.csv`. You can use your browser, `wget` or `curl` to save the file locally.
+
+## Create a database
+
+Lets's create a database in Vantage. Use your favorite SQL tool to run the following query:
+
+```sql
+CREATE DATABASE irs
+AS PERMANENT = 120e6, -- 120MB
+ SPOOL = 120e6; -- 120MB
+```
+
+## Run Fastload
+
+We will now run `Fastload`. `Fastload` is a command-line tool that is very efficient in uploading large amounts of data into Vantage. `Fastload`, in order to be fast, has several restrictions in place. It can only populate empty tables, no inserts to already populated tables are supported. It doesn't support tables with secondary indices. Also, it won't insert duplicate records, even if a table is a `MULTISET` table. For the full list of restrictions check out [Teradata® `Fastload` Reference](https://docs.teradata.com/r/hBBrRBhRY0MFN4~xApbUqw/root).
+
+Fastload has its own scripting language. The language allows you to prepare the database with arbitrary SQL commands, declare the input source and define how the data should be inserted into Vantage. The tool supports both interactive and batch mode. In this section, we are going to use the interactive mode.
+
+Let's start `Fastload` in the interactive mode:
+
+```bash
+fastload
+```
+
+First, let's log in to a Vantage database. I've a Vantage Express running locally, so I'll use `localhost` as the hostname and `dbc` for username and password:
+
+```bash
+LOGON localhost/dbc,dbc;
+```
+
+Now, that we are logged in, I'm going to prepare the database. I'm switching to `irs` database and making sure that the target table `irs_returns` and error tables (more about error tables later) do not exist:
+
+```sql
+DATABASE irs;
+DROP TABLE irs_returns;
+DROP TABLE irs_returns_err1;
+DROP TABLE irs_returns_err2;
+```
+
+I'll now create an empty table that can hold the data elements from the csv file.
+
+```sql
+CREATE MULTISET TABLE irs_returns (
+ return_id INT,
+ filing_type VARCHAR(5) CHARACTER SET LATIN NOT CASESPECIFIC,
+ ein INT,
+ tax_period INT,
+ sub_date VARCHAR(100) CHARACTER SET LATIN NOT CASESPECIFIC,
+ taxpayer_name VARCHAR(100) CHARACTER SET LATIN NOT CASESPECIFIC,
+ return_type VARCHAR(5) CHARACTER SET LATIN NOT CASESPECIFIC,
+ dln BIGINT,
+ object_id BIGINT
+)
+PRIMARY INDEX ( return_id );
+```
+
+Now, that the target table has been prepared, we can start loading the data. `ERRORFILES` directive defines error files. The error files are really tables that `Fastload` creates. The first table contains information about data conversion and other issues. The second table keeps track of data uniqueness issues, e.g. primary key violations.
+
+```sql
+BEGIN LOADING irs_returns
+ ERRORFILES irs_returns_err1, irs_returns_err2;
+```
+
+We instruct `Fastload` to save a checkpoint every 10k rows. It's useful in case we have to restart our job. It will be able to resume from the last checkpoint.
+
+
+```sql
+ CHECKPOINT 10000;
+```
+
+We also need to tell `Fastload` to skip the first row in the CSV file as start at record 2. That's because the first row contains column headers.
+
+```sql
+ RECORD 2;
+```
+
+`Fastload` also needs to know that it's a comma-separated file:
+
+```sql
+ SET RECORD VARTEXT ",";
+```
+
+`DEFINE` block specifies what columns we should expect:
+
+```sql
+ DEFINE in_return_id (VARCHAR(19)),
+ in_filing_type (VARCHAR(5)),
+ in_ein (VARCHAR(19)),
+ in_tax_period (VARCHAR(19)),
+ in_sub_date (VARCHAR(22)),
+ in_taxpayer_name (VARCHAR(100)),
+ in_return_type (VARCHAR(5)),
+ in_dln (VARCHAR(19)),
+ in_object_id (VARCHAR(19)),
+```
+
+`DEFINE` block also has `FILE` attribute that points to the file with the data. Replace `FILE = /tmp/index_2020.csv;` with your location of `index_2020.csv` file:
+
+```sql
+ FILE = /tmp/index_2020.csv;
+```
+
+Finally, we define the INSERT statement that will put data into the database and we close off `LOADING` block:
+
+```sql
+ INSERT INTO irs_returns (
+ return_id,
+ filing_type,
+ ein,
+ tax_period,
+ sub_date,
+ taxpayer_name,
+ return_type,
+ dln,
+ object_id
+ ) VALUES (
+ :in_return_id,
+ :in_filing_type,
+ :in_ein,
+ :in_tax_period,
+ :in_sub_date,
+ :in_taxpayer_name,
+ :in_return_type,
+ :in_dln,
+ :in_object_id
+ );
+END LOADING;
+```
+Once the job has finished, we are logging off from the database to clean things up.
+
+```sql
+LOGOFF;
+```
+
+Here is what the entire script looks like:
+```sql
+LOGON localhost/dbc,dbc;
+
+DATABASE irs;
+DROP TABLE irs_returns;
+DROP TABLE irs_returns_err1;
+DROP TABLE irs_returns_err2;
+
+CREATE MULTISET TABLE irs_returns (
+ return_id INT,
+ filing_type VARCHAR(5) CHARACTER SET LATIN NOT CASESPECIFIC,
+ ein INT,
+ tax_period INT,
+ sub_date VARCHAR(100) CHARACTER SET LATIN NOT CASESPECIFIC,
+ taxpayer_name VARCHAR(100) CHARACTER SET LATIN NOT CASESPECIFIC,
+ return_type VARCHAR(5) CHARACTER SET LATIN NOT CASESPECIFIC,
+ dln BIGINT,
+ object_id BIGINT
+)
+PRIMARY INDEX ( return_id );
+
+BEGIN LOADING irs_returns
+ ERRORFILES irs_returns_err1, irs_returns_err2;
+ CHECKPOINT 10000;
+ RECORD 2;
+ SET RECORD VARTEXT ",";
+
+ DEFINE in_return_id (VARCHAR(19)),
+ in_filing_type (VARCHAR(5)),
+ in_ein (VARCHAR(19)),
+ in_tax_period (VARCHAR(19)),
+ in_sub_date (VARCHAR(22)),
+ in_taxpayer_name (VARCHAR(100)),
+ in_return_type (VARCHAR(5)),
+ in_dln (VARCHAR(19)),
+ in_object_id (VARCHAR(19)),
+ FILE = /tmp/index_2020.csv;
+
+ INSERT INTO irs_returns (
+ return_id,
+ filing_type,
+ ein,
+ tax_period,
+ sub_date,
+ taxpayer_name,
+ return_type,
+ dln,
+ object_id
+ ) VALUES (
+ :in_return_id,
+ :in_filing_type,
+ :in_ein,
+ :in_tax_period,
+ :in_sub_date,
+ :in_taxpayer_name,
+ :in_return_type,
+ :in_dln,
+ :in_object_id
+ );
+END LOADING;
+
+LOGOFF;
+```
+
+## Batch mode
+
+To run our example in batch mode, simply save all instructions in a single file and run:
+
+
+```bash
+fastload < file_with_instruction.fastload
+```
+
+## `Fastload` vs. NOS
+
+In our case, the file is in an S3 bucket. That means, that we can use Native Object Storage (NOS) to ingest the data:
+
+```sql
+-- create an S3-backed foreign table
+CREATE FOREIGN TABLE irs_returns_nos
+ USING ( LOCATION('/s3/s3.amazonaws.com/irs-form-990/index_2020.csv') );
+
+-- load the data into a native table
+CREATE MULTISET TABLE irs_returns_nos_native
+ (RETURN_ID, FILING_TYPE, EIN, TAX_PERIOD, SUB_DATE, TAXPAYER_NAME)
+AS (
+ SELECT RETURN_ID, FILING_TYPE, EIN, TAX_PERIOD, SUB_DATE, TAXPAYER_NAME FROM irs_returns_nos
+) WITH DATA
+NO PRIMARY INDEX;
+```
+
+The NOS solution is convenient as it doesn't depend on additional tools. It can be implemented using only SQL. It performs well, especially for Vantage deployments with a high number of AMPs as NOS tasks are delegated to AMPs and run in parallel. Also, splitting the data in object storage into multiple files may further improve performance.
+
+## Summary
+
+This how-to demonstrated how to ingest large amounts of data into Vantage. We loaded hundreds of thousands or records into Vantage in a couple of seconds using `Fastload`.
+
+## Further reading
+
+* [Teradata® `Fastload` Reference](https://docs.teradata.com/r/hBBrRBhRY0MFN4~xApbUqw/root)
+* [Query data stored in object storage](../manage-data/nos.md)
+
+import CommunityLinkPartial from '../_partials/community_link.mdx';
+
+
\ No newline at end of file