TIF_E41202548
This commit is contained in:
commit
83d53ecd00
|
@ -0,0 +1,7 @@
|
|||
SECRET_KEY = hIBoZ2HCWswVbmNsvUSKlTfSSttqPHRl7fskUJyIjeXooN0kBr
|
||||
usernamenya = root
|
||||
passwordnya = ""
|
||||
db_ip = 127.0.0.1
|
||||
db_name = sentimen
|
||||
FLASK_ENV = myenv
|
||||
FILENAMES = C:\Users\BAYU FIRDAUS\OneDrive\SKRIPSI\PROJEK\FlaskSentimen
|
|
@ -0,0 +1,3 @@
|
|||
# Default ignored files
|
||||
/shelf/
|
||||
/workspace.xml
|
|
@ -0,0 +1,14 @@
|
|||
<?xml version="1.0" encoding="UTF-8"?>
|
||||
<module type="PYTHON_MODULE" version="4">
|
||||
<component name="NewModuleRootManager">
|
||||
<content url="file://$MODULE_DIR$">
|
||||
<excludeFolder url="file://$MODULE_DIR$/myenv" />
|
||||
</content>
|
||||
<orderEntry type="jdk" jdkName="Python 3.11 (Python311)" jdkType="Python SDK" />
|
||||
<orderEntry type="sourceFolder" forTests="false" />
|
||||
</component>
|
||||
<component name="PyDocumentationSettings">
|
||||
<option name="format" value="PLAIN" />
|
||||
<option name="myDocStringFormat" value="Plain" />
|
||||
</component>
|
||||
</module>
|
|
@ -0,0 +1,21 @@
|
|||
<component name="InspectionProjectProfileManager">
|
||||
<profile version="1.0">
|
||||
<option name="myName" value="Project Default" />
|
||||
<inspection_tool class="PyPackageRequirementsInspection" enabled="true" level="WARNING" enabled_by_default="true">
|
||||
<option name="ignoredPackages">
|
||||
<value>
|
||||
<list size="7">
|
||||
<item index="0" class="java.lang.String" itemvalue="nltk" />
|
||||
<item index="1" class="java.lang.String" itemvalue="numpy" />
|
||||
<item index="2" class="java.lang.String" itemvalue="pandas" />
|
||||
<item index="3" class="java.lang.String" itemvalue="seaborn" />
|
||||
<item index="4" class="java.lang.String" itemvalue="joblib" />
|
||||
<item index="5" class="java.lang.String" itemvalue="scikit-learn" />
|
||||
<item index="6" class="java.lang.String" itemvalue="Flask" />
|
||||
</list>
|
||||
</value>
|
||||
</option>
|
||||
</inspection_tool>
|
||||
<inspection_tool class="XmlInvalidId" enabled="false" level="ERROR" enabled_by_default="false" />
|
||||
</profile>
|
||||
</component>
|
|
@ -0,0 +1,6 @@
|
|||
<component name="InspectionProjectProfileManager">
|
||||
<settings>
|
||||
<option name="USE_PROJECT_PROFILE" value="false" />
|
||||
<version value="1.0" />
|
||||
</settings>
|
||||
</component>
|
|
@ -0,0 +1,7 @@
|
|||
<?xml version="1.0" encoding="UTF-8"?>
|
||||
<project version="4">
|
||||
<component name="ProjectRootManager" version="2" project-jdk-name="Python 3.11 (Python311)" project-jdk-type="Python SDK" />
|
||||
<component name="PyCharmProfessionalAdvertiser">
|
||||
<option name="shown" value="true" />
|
||||
</component>
|
||||
</project>
|
|
@ -0,0 +1,8 @@
|
|||
<?xml version="1.0" encoding="UTF-8"?>
|
||||
<project version="4">
|
||||
<component name="ProjectModuleManager">
|
||||
<modules>
|
||||
<module fileurl="file://$PROJECT_DIR$/.idea/flasksentimentpy-main.iml" filepath="$PROJECT_DIR$/.idea/flasksentimentpy-main.iml" />
|
||||
</modules>
|
||||
</component>
|
||||
</project>
|
|
@ -0,0 +1,8 @@
|
|||
<?xml version="1.0" encoding="UTF-8"?>
|
||||
<project version="4">
|
||||
<component name="NimToolchainService">
|
||||
<option name="rootPaths">
|
||||
<list />
|
||||
</option>
|
||||
</component>
|
||||
</project>
|
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
|
@ -0,0 +1,807 @@
|
|||
from flask import Flask, request, render_template, redirect, url_for, flash, send_file
|
||||
from flaskext.mysql import MySQL
|
||||
from flask_wtf.csrf import CSRFProtect, CSRFError
|
||||
from pymysql.cursors import DictCursor
|
||||
from werkzeug.utils import secure_filename
|
||||
import os
|
||||
|
||||
from config_db import *
|
||||
|
||||
from datetime import datetime, timedelta
|
||||
from form import DocumentUploadForm as docup
|
||||
from testku import text_preprocesing
|
||||
from preprocesing_text import *
|
||||
from tf_idf import *
|
||||
from naive_bayes import *
|
||||
from genplot import *
|
||||
|
||||
# development
|
||||
assets_dir = assets_dir
|
||||
|
||||
app = Flask(__name__)
|
||||
|
||||
# declare variabel dari config_db.py
|
||||
database_username = database_username
|
||||
database_password = database_password
|
||||
database_ip = database_ip
|
||||
database_name = database_name
|
||||
secret_key = secret_key
|
||||
environment = env
|
||||
|
||||
# config
|
||||
app.config['SECRET_KEY'] = secret_key
|
||||
app.config['FLASK_ENV'] = environment
|
||||
app.config['UPLOAD_FOLDER'] = assets_dir
|
||||
|
||||
app.config['MYSQL_DATABASE_USER'] = database_username
|
||||
app.config['MYSQL_DATABASE_PASSWORD'] = database_password
|
||||
app.config['MYSQL_DATABASE_DB'] = database_name
|
||||
app.config['MYSQL_DATABASE_HOST'] = database_ip
|
||||
app.config['MYSQL_DATABASE_CHARSET'] = "utf8mb4"
|
||||
|
||||
app.config['UPLOAD_EXTENSIONS'] = ['.xlsx']
|
||||
|
||||
csrf = CSRFProtect(app)
|
||||
mysql = MySQL(cursorclass=DictCursor)
|
||||
|
||||
# peggunaan instan diterapkan global
|
||||
csrf.init_app(app)
|
||||
mysql.init_app(app)
|
||||
|
||||
# error handling untuk page 404 dan 500
|
||||
@app.errorhandler(404)
|
||||
def not_found_error(error):
|
||||
return render_template('404.html'), 404
|
||||
|
||||
@app.errorhandler(500)
|
||||
def internal_error(error):
|
||||
return render_template('500.html'), 500
|
||||
|
||||
@app.errorhandler(CSRFError)
|
||||
def handle_csrf_error(error):
|
||||
return render_template('500.html'), 400
|
||||
|
||||
@app.route('/')
|
||||
@app.route('/index')
|
||||
def index():
|
||||
return render_template('index_sentimen.html')
|
||||
|
||||
@app.route('/dashboard')
|
||||
def home():
|
||||
return render_template('index_sentimen.html')
|
||||
|
||||
# route sentimen untuk input satuan dari pengguna
|
||||
# pada testing input manual ini diggunakan dataset 520 dari dataset yang telah dipre-processing
|
||||
@app.route('/sentimen', methods=['GET','POST'])
|
||||
def index_sentimen():
|
||||
|
||||
# data diambil dari database MySQL
|
||||
query = """select * from dataset_procesed"""
|
||||
conn = mysql.connect()
|
||||
cursor = conn.cursor()
|
||||
cursor.execute(query)
|
||||
data = cursor.fetchall()
|
||||
conn.close()
|
||||
#
|
||||
if data:
|
||||
df = pd.DataFrame(data)
|
||||
# print(df.head())
|
||||
df["tweet_list"] = df["tweet_tokens_stemmed"].apply(convert_text_list)
|
||||
df["TF_dict"] = df['tweet_list'].apply(calc_TF)
|
||||
DF = calc_DF(df["TF_dict"])
|
||||
n_document = len(df)
|
||||
IDF = calc_IDF(n_document, DF)
|
||||
# print(IDF)
|
||||
|
||||
df_kamusdata = pd.DataFrame(list(IDF.items()),columns = ['term','tf'])
|
||||
|
||||
gk = df.groupby('label')
|
||||
n_dok = gk.size()
|
||||
# print(n_dok)
|
||||
|
||||
df_kamusdata_pos = gk.get_group(1)
|
||||
# print(df_kamusdata_pos)
|
||||
DF_pos = calc_DF(df_kamusdata_pos["TF_dict"])
|
||||
IDF_pos = calc_IDF(n_document, DF_pos)
|
||||
df_kamusdata_posnya = pd.DataFrame(list(DF_pos.items()),columns = ['term','tf'])
|
||||
df_kamusdata_posnya["idf"] = pd.DataFrame(list(IDF_pos.values()),columns = ['idf'])
|
||||
df_kamusdata_posnya["tf_idf_dict"] = df_kamusdata_posnya.tf * df_kamusdata_posnya.idf
|
||||
# df_kamusdata_posnya["TF-IDF_dict"].sum()
|
||||
|
||||
df_kamusdata_net = gk.get_group(2)
|
||||
# print(df_kamusdata_pos)
|
||||
DF_net = calc_DF(df_kamusdata_net["TF_dict"])
|
||||
IDF_net = calc_IDF(n_document, DF_net)
|
||||
df_kamusdata_netnya = pd.DataFrame(list(DF_net.items()),columns = ['term','tf'])
|
||||
df_kamusdata_netnya["idf"] = pd.DataFrame(list(IDF_net.values()),columns = ['idf'])
|
||||
df_kamusdata_netnya["tf_idf_dict"] = df_kamusdata_netnya.tf * df_kamusdata_netnya.idf
|
||||
# df_kamusdata_posnya["TF-IDF_dict"].sum()
|
||||
|
||||
df_kamusdata_neg = gk.get_group(0)
|
||||
# print(df_kamusdata_neg)
|
||||
DF_neg = calc_DF(df_kamusdata_neg["TF_dict"])
|
||||
IDF_neg = calc_IDF(n_document, DF_neg)
|
||||
df_kamusdata_negnya = pd.DataFrame(list(DF_neg.items()),columns = ['term','tf'])
|
||||
df_kamusdata_negnya["idf"] = pd.DataFrame(list(IDF_neg.values()),columns = ['idf'])
|
||||
df_kamusdata_negnya["tf_idf_dict"] = df_kamusdata_negnya.tf * df_kamusdata_negnya.idf
|
||||
# print(df_kamusdata_negnya.head())
|
||||
# df_kamusdata_negnya["TF-IDF_dict"].sum()
|
||||
else:
|
||||
msg = 'Dataset masih Kosong!'
|
||||
|
||||
if request.method == 'POST':
|
||||
response = request.form.get('sentimen')
|
||||
response = re.sub(r'[^\w]', ' ', remove_number(response))
|
||||
|
||||
if len(response.strip()) == 0:
|
||||
return render_template("index_sentimen.html", score_pos="kosong", score_net="kosong", score_neg="kosong", prediksi_nb="kosong", prediksi="kosong", sentimen=False)
|
||||
elif len(response) != 0:
|
||||
|
||||
sentimen=None
|
||||
dictme=None
|
||||
dictme = {'username':'input','term':response}
|
||||
sentimen = pd.DataFrame([dictme])
|
||||
pre=text_preprocesing(sentimen['term'], "satuan") # <--- satuan
|
||||
unique_term = list(set(pre[0]))
|
||||
|
||||
if len(unique_term) == 0:
|
||||
return render_template("index_sentimen.html", score_pos="kosong", score_net="kosong", score_neg="kosong", prediksi_nb="kosong", prediksi="kosong", sentimen=False)
|
||||
|
||||
prediksi_nb=naive_bayes_once("satuan", unique_term, df_kamusdata_posnya , df_kamusdata_negnya, df_kamusdata_netnya, df_kamusdata)
|
||||
score_posneg = score_probnb(prediksi_nb, n_dok.sum(), n_dok[1], n_dok[2], n_dok[0])
|
||||
|
||||
if score_posneg["Negatif"] > score_posneg["Positif"] and score_posneg["Negatif"] > score_posneg["Netral"]:
|
||||
label_prediksi = "Negatif"
|
||||
elif score_posneg["Positif"] > score_posneg["Negatif"] and score_posneg["Positif"] > score_posneg["Netral"]:
|
||||
label_prediksi = "Positif"
|
||||
elif score_posneg["Netral"] > score_posneg["Negatif"] and score_posneg["Netral"] > score_posneg["Positif"]:
|
||||
label_prediksi = "Netral"
|
||||
else:
|
||||
label_prediksi = "Sentimen tidak diketahui"
|
||||
|
||||
|
||||
if add_loghistory(response, label_prediksi):
|
||||
return render_template("index_sentimen.html", score_pos=score_posneg["Positif"], score_net=score_posneg["Netral"], score_neg=score_posneg["Negatif"], prediksi_nb=[prediksi_nb.to_html(classes='table', header="true")], prediksi=label_prediksi, sentimen=' '.join(map(str, sentimen['term'].values)))
|
||||
|
||||
|
||||
return render_template('index.html')
|
||||
|
||||
def add_loghistory(sentimen, hasil_label):
|
||||
conn = mysql.connect()
|
||||
cursor = conn.cursor()
|
||||
|
||||
# Insert data_preproces
|
||||
query = """INSERT INTO
|
||||
log_riwayat_testing (
|
||||
datetime,
|
||||
sentimen,
|
||||
hasil_sentimen)
|
||||
VALUES(%s, %s, %s);"""
|
||||
|
||||
now=datetime.now().strftime('%Y-%m-%d %H-%M-%S')
|
||||
|
||||
cursor.execute(query, (now, sentimen, hasil_label))
|
||||
conn.commit()
|
||||
conn.close()
|
||||
return True
|
||||
|
||||
# route untuk halaman history
|
||||
@app.route('/history', methods=['GET'])
|
||||
def history():
|
||||
_data_history = load_riwayat_testing()
|
||||
if _data_history:
|
||||
return render_template('log_history.html', datahistory=_data_history, msg="sukses")
|
||||
else:
|
||||
return render_template('log_history.html', msg="Gagal memuat riwayat")
|
||||
|
||||
def load_riwayat_testing():
|
||||
query = """SELECT id, datetime, sentimen, hasil_sentimen, validasi_sentimen FROM log_riwayat_testing"""
|
||||
cursor = mysql.get_db().cursor()
|
||||
cursor.execute(query)
|
||||
data = cursor.fetchall()
|
||||
cursor.close()
|
||||
return data if data else False
|
||||
|
||||
# route untuk update log_history untuk (validasi label)
|
||||
@app.route('/history/edit', methods=['POST'])
|
||||
def edit_history():
|
||||
id = request.form.get('my_id')
|
||||
validasi_sentimen = request.form.get('option')
|
||||
try:
|
||||
query = "UPDATE log_riwayat_testing SET validasi_sentimen = %s WHERE id = %s"
|
||||
conn = mysql.connect()
|
||||
cursor = conn.cursor()
|
||||
cursor.execute(query, (validasi_sentimen, int(id)))
|
||||
conn.commit()
|
||||
conn.close()
|
||||
msg = "sukses"
|
||||
except Exception as e:
|
||||
print(e)
|
||||
msg = "Gagal memperbarui riwayat"
|
||||
return redirect(url_for('history', msg=msg))
|
||||
|
||||
# route untuk clear semua loghistory
|
||||
@app.route('/history/clear-log', methods=['POST'])
|
||||
def clear_loghistory():
|
||||
query = """TRUNCATE TABLE log_riwayat_testing"""
|
||||
conn = mysql.connect()
|
||||
cursor = conn.cursor()
|
||||
cursor.execute(query)
|
||||
conn.commit()
|
||||
conn.close()
|
||||
return redirect(url_for('history', msg="sukses"))
|
||||
|
||||
# route untuk halaman dataset
|
||||
@app.route('/dataset')
|
||||
def dataset():
|
||||
|
||||
_dr=load_dataset_raw()
|
||||
_dp=load_dataset_processed()
|
||||
|
||||
if (_dr.empty == True or _dp.empty == True):
|
||||
return render_template('dataset.html', )
|
||||
else:
|
||||
return render_template('dataset.html', dr=_dr.to_html(classes="table"), dp=_dp.to_html(classes="table"), msg="sukses")
|
||||
|
||||
# route untuk halaman upload dataset (.xlsx)
|
||||
@app.route('/inputdataset', methods=['GET','POST'])
|
||||
def input_dataset():
|
||||
form = docup()
|
||||
msg = ''
|
||||
|
||||
if form.validate_on_submit():
|
||||
d = form.document.data
|
||||
docname = secure_filename(d.filename)
|
||||
d.save(os.path.join(app.config['UPLOAD_FOLDER'], docname))
|
||||
print("upload sukses")
|
||||
|
||||
data_path = os.path.join(app.config['UPLOAD_FOLDER'], docname)
|
||||
ef = pd.read_excel(data_path)
|
||||
|
||||
# Mengekstrak tweets dan labels dari DataFrame
|
||||
if 'tweets' in ef.columns and 'label' in ef.columns:
|
||||
tweets = ef['tweets'].tolist()
|
||||
labels = ef['label'].tolist()
|
||||
else:
|
||||
# Kolom tweets atau label tidak ditemukan
|
||||
msg = "Kolom 'tweets' dan 'label' Tidak Ditemukan Pada File Excel!"
|
||||
flash(msg, 'error')
|
||||
return render_template('dataset_upload.html', form=form, msg=msg)
|
||||
|
||||
filename_raw = pd.DataFrame({'tweets': tweets, 'label': labels})
|
||||
|
||||
if(load_kedb(filename_raw, len(filename_raw)) == "sukses"):
|
||||
filename_raw['label'] = filename_raw['label'].replace({'negatif': 0, 'positif':1, 'netral':2})
|
||||
# processed_data = text_preprocesing(filename_raw, "data-450")
|
||||
# filename_raw["tweets_case"] = filename_raw["tweets_case"]
|
||||
# filename_raw["tweets_tokenizing"] = filename_raw["tweets_tokenizing"]
|
||||
# filename_raw["tweet_normalized"] = filename_raw["tweet_normalized"]
|
||||
# filename_raw["tweet_tokens_WSW"] = filename_raw["tweet_tokens_WSW"]
|
||||
# filename_raw["tweet_tokens_stemmed"] = processed_data["tweet_tokens_stemmed"]
|
||||
filename_raw["tweet_tokens_stemmed"] = text_preprocesing(filename_raw, "data-520")
|
||||
|
||||
filename_raw["tweet_list"] = filename_raw["tweet_tokens_stemmed"].astype(str).apply(convert_text_list)
|
||||
|
||||
# Split Data
|
||||
train = filename_raw.sample(frac=0.8, random_state=100)
|
||||
test = filename_raw[~filename_raw.index.isin(train.index)]
|
||||
|
||||
# Pembobotan Kata TF-IDF
|
||||
train["TF_dict"] = train['tweet_list'].apply(calc_TF)
|
||||
DF = calc_DF(train["TF_dict"])
|
||||
n_document = len(train)
|
||||
IDF = calc_IDF(n_document, DF)
|
||||
df_bobotdata = pd.DataFrame(list(IDF.items()),columns = ['term','idf'])
|
||||
df_bobotdata['df'] = pd.DataFrame(list(DF.values()), columns = ['df'])
|
||||
gk = train.groupby('label')
|
||||
|
||||
# TF-IDF Positif
|
||||
df_bobotdata_pos = gk.get_group(1)
|
||||
DF_pos = calc_DF(df_bobotdata_pos["TF_dict"])
|
||||
IDF_pos = calc_IDF(n_document, DF_pos)
|
||||
df_bobotdata_posnya = pd.DataFrame(list(DF_pos.items()),columns = ['term','tf'])
|
||||
df_bobotdata_posnya["idf"] = pd.DataFrame(list(IDF_pos.values()),columns = ['idf'])
|
||||
df_bobotdata_posnya["TF-IDF_dict"] = df_bobotdata_posnya.tf * df_bobotdata_posnya.idf
|
||||
|
||||
# TF-IDF Negatif
|
||||
df_bobotdata_neg = gk.get_group(0)
|
||||
DF_neg = calc_DF(df_bobotdata_neg["TF_dict"])
|
||||
IDF_neg = calc_IDF(n_document, DF_neg)
|
||||
df_bobotdata_negnya = pd.DataFrame(list(DF_neg.items()),columns = ['term','tf'])
|
||||
df_bobotdata_negnya["idf"] = pd.DataFrame(list(IDF_neg.values()),columns = ['idf'])
|
||||
df_bobotdata_negnya["TF-IDF_dict"] = df_bobotdata_negnya.tf * df_bobotdata_negnya.idf
|
||||
|
||||
# TF-IDF Netral
|
||||
df_bobotdata_net = gk.get_group(2)
|
||||
DF_net = calc_DF(df_bobotdata_net["TF_dict"])
|
||||
IDF_net = calc_IDF(n_document, DF_net)
|
||||
df_bobotdata_netnya = pd.DataFrame(list(DF_net.items()),columns = ['term','tf'])
|
||||
df_bobotdata_netnya["idf"] = pd.DataFrame(list(IDF_net.values()),columns = ['idf'])
|
||||
df_bobotdata_netnya["TF-IDF_dict"] = df_bobotdata_netnya.tf * df_bobotdata_netnya.idf
|
||||
|
||||
pre_loaddata('dataset_procesed')
|
||||
pre_loaddata('dataset_training')
|
||||
pre_loaddata('dataset_tes')
|
||||
pre_loaddata('bobot_data_all')
|
||||
pre_loaddata('bobot_positif')
|
||||
pre_loaddata('bobot_negatif')
|
||||
pre_loaddata('bobot_netral')
|
||||
|
||||
conn = mysql.connect()
|
||||
cursor = conn.cursor()
|
||||
|
||||
query = """INSERT INTO
|
||||
dataset_procesed (
|
||||
label,
|
||||
tweet_tokens_stemmed)
|
||||
VALUES(%s, "%s");"""
|
||||
|
||||
i=0
|
||||
while i < len(filename_raw):
|
||||
cursor.execute(query, (filename_raw['label'].iloc[i], filename_raw['tweet_tokens_stemmed'].iloc[i]))
|
||||
conn.commit()
|
||||
i+=1
|
||||
|
||||
query = """INSERT INTO
|
||||
dataset_tes (
|
||||
label,
|
||||
tweet_tokens_stemmed)
|
||||
VALUES(%s, "%s");"""
|
||||
|
||||
i=0
|
||||
while i < len(test):
|
||||
cursor.execute(query, (test['label'].iloc[i], test['tweet_list'].iloc[i]))
|
||||
conn.commit()
|
||||
i+=1
|
||||
|
||||
query = """INSERT INTO
|
||||
dataset_training (
|
||||
label,
|
||||
tweet_tokens_stemmed)
|
||||
VALUES(%s, "%s");"""
|
||||
|
||||
i=0
|
||||
while i < len(train):
|
||||
cursor.execute(query, (train['label'].iloc[i], train['tweet_list'].iloc[i]))
|
||||
conn.commit()
|
||||
i+=1
|
||||
|
||||
query = """INSERT INTO
|
||||
bobot_data_all (
|
||||
term,
|
||||
df,
|
||||
idf)
|
||||
VALUES(%s, %s, %s);"""
|
||||
|
||||
i=0
|
||||
while i < len(df_bobotdata):
|
||||
cursor.execute(query, ( df_bobotdata['term'][i], df_bobotdata['df'][i], df_bobotdata['idf'][i], ))
|
||||
conn.commit()
|
||||
i+=1
|
||||
|
||||
query = """INSERT INTO
|
||||
bobot_positif (
|
||||
term,
|
||||
tf,
|
||||
idf,
|
||||
tf_idf_dict)
|
||||
VALUES(%s, %s ,%s ,%s);"""
|
||||
|
||||
i=0
|
||||
while i < len(df_bobotdata_posnya):
|
||||
cursor.execute(query, (df_bobotdata_posnya['term'][i], df_bobotdata_posnya['tf'][i], df_bobotdata_posnya['idf'][i], df_bobotdata_posnya['TF-IDF_dict'][i], ))
|
||||
conn.commit()
|
||||
i+=1
|
||||
|
||||
query = """INSERT INTO
|
||||
bobot_negatif (
|
||||
term,
|
||||
tf,
|
||||
idf,
|
||||
tf_idf_dict)
|
||||
VALUES(%s ,%s ,%s,%s);"""
|
||||
|
||||
i=0
|
||||
while i < len(df_bobotdata_negnya):
|
||||
cursor.execute(query, (df_bobotdata_negnya['term'][i], df_bobotdata_negnya['tf'][i], df_bobotdata_negnya['idf'][i], df_bobotdata_negnya['TF-IDF_dict'][i], ))
|
||||
conn.commit()
|
||||
i+=1
|
||||
|
||||
query = """INSERT INTO
|
||||
bobot_netral (
|
||||
term,
|
||||
tf,
|
||||
idf,
|
||||
tf_idf_dict)
|
||||
VALUES(%s ,%s ,%s,%s);"""
|
||||
|
||||
i=0
|
||||
while i < len(df_bobotdata_netnya):
|
||||
cursor.execute(query, (df_bobotdata_netnya['term'][i], df_bobotdata_netnya['tf'][i], df_bobotdata_netnya['idf'][i], df_bobotdata_netnya['TF-IDF_dict'][i], ))
|
||||
conn.commit()
|
||||
i+=1
|
||||
|
||||
conn.close()
|
||||
|
||||
msg = "Data berhasil ditambahkan.."
|
||||
return redirect(url_for('dataset', msg=msg))
|
||||
|
||||
return render_template('dataset_upload.html', form=form, msg=msg)
|
||||
|
||||
def load_kedb(data, jumTot):
|
||||
temp_dat=pd.DataFrame(data, columns=["tweets","label"])
|
||||
dataset_raw='dataset_raw'
|
||||
if(pre_loaddata(dataset_raw)==True):
|
||||
query = """INSERT INTO
|
||||
dataset_raw (
|
||||
tweets,
|
||||
label)
|
||||
VALUES (%s,%s);"""
|
||||
|
||||
conn = mysql.connect()
|
||||
cursor = conn.cursor()
|
||||
|
||||
i=0
|
||||
while i < jumTot:
|
||||
cursor.execute(query, (str(temp_dat['tweets'][i]), temp_dat['label'][i]))
|
||||
conn.commit()
|
||||
i+=1
|
||||
|
||||
conn.close()
|
||||
return "sukses"
|
||||
else:
|
||||
return "gagal"
|
||||
|
||||
def load_dataset_raw():
|
||||
query = """SELECT tweets, label FROM dataset_raw"""
|
||||
conn = mysql.connect()
|
||||
cursor = conn.cursor()
|
||||
cursor.execute(query)
|
||||
data = cursor.fetchall()
|
||||
conn.close()
|
||||
if data:
|
||||
df = pd.DataFrame(data, columns=['tweets','label'])
|
||||
df.index = df.index + 1
|
||||
return df
|
||||
else:
|
||||
return False
|
||||
|
||||
# Menampilkan Dataset Setelah Preprocessing
|
||||
def load_dataset_processed():
|
||||
query = """SELECT tweet_tokens_stemmed, label FROM dataset_procesed"""
|
||||
conn = mysql.connect()
|
||||
cursor = conn.cursor()
|
||||
cursor.execute(query)
|
||||
data = cursor.fetchall()
|
||||
conn.close()
|
||||
if data:
|
||||
# df = pd.DataFrame(data, columns=['label','tweets_case','tweets_tokenizing','tweet_normalized','tweet_tokens_WSW','tweet_tokens_stemmed'])
|
||||
# df = df.rename(columns={'tweets_case': 'Case Folding', 'tweets_tokenizing': 'Tokenization', 'tweet_normalized': 'Normalization',
|
||||
# 'tweet_tokens_WSW': 'Stopwords', 'tweet_tokens_stemmed': 'Stemming'})
|
||||
df = pd.DataFrame(data, columns=['label','tweet_tokens_stemmed'])
|
||||
df = df.rename(columns={'tweet_tokens_stemmed': 'Stemming'})
|
||||
df.index = df.index + 1
|
||||
return df
|
||||
else:
|
||||
return False
|
||||
|
||||
# route untuk download template
|
||||
@app.route('/download_template')
|
||||
def download_template():
|
||||
template_path = 'template.xlsx'
|
||||
return send_file(template_path, as_attachment=True)
|
||||
|
||||
# route untuk halaman pembobotan
|
||||
@app.route('/pembobotan', methods=['GET','POST'])
|
||||
def bobotdata():
|
||||
|
||||
msg=''
|
||||
|
||||
_df_bobotdata = load_bobot_semua()
|
||||
_df_bobotdata_posnya = load_bobot_positif()
|
||||
_df_bobotdata_negnya = load_bobot_negatif()
|
||||
_df_bobotdata_netnya = load_bobot_netral()
|
||||
|
||||
msg='bobot done..'
|
||||
|
||||
if ( _df_bobotdata.empty == True or _df_bobotdata_posnya.empty == True or _df_bobotdata_negnya.empty == True or _df_bobotdata_netnya.empty == True):
|
||||
return render_template('pembobotan.html', )
|
||||
|
||||
else:
|
||||
return render_template('pembobotan.html',
|
||||
df_bobotdata= _df_bobotdata.to_html(classes="table"),
|
||||
df_bobotdata_pos= _df_bobotdata_posnya.to_html(classes="table"),
|
||||
df_bobotdata_neg= _df_bobotdata_negnya.to_html(classes="table"),
|
||||
df_bobotdata_net= _df_bobotdata_netnya.to_html(classes="table"),
|
||||
msg=msg)
|
||||
|
||||
def load_bobot_semua():
|
||||
query = """SELECT term, df, idf FROM bobot_data_all"""
|
||||
conn = mysql.connect()
|
||||
cursor = conn.cursor()
|
||||
cursor.execute(query)
|
||||
data = cursor.fetchall()
|
||||
conn.close()
|
||||
if data:
|
||||
df = pd.DataFrame(data, columns=['term','df','idf'])
|
||||
df.index = df.index + 1
|
||||
return df
|
||||
else:
|
||||
return False
|
||||
|
||||
def load_bobot_positif():
|
||||
query = """SELECT term, tf, idf, tf_idf_dict FROM bobot_positif"""
|
||||
conn = mysql.connect()
|
||||
cursor = conn.cursor()
|
||||
cursor.execute(query)
|
||||
data = cursor.fetchall()
|
||||
conn.close()
|
||||
if data:
|
||||
df = pd.DataFrame(data, columns=['term','tf','idf','tf_idf_dict'])
|
||||
df.index = df.index + 1
|
||||
return df
|
||||
else:
|
||||
return False
|
||||
|
||||
def load_bobot_negatif():
|
||||
query = """SELECT term, tf, idf, tf_idf_dict FROM bobot_negatif"""
|
||||
conn = mysql.connect()
|
||||
cursor = conn.cursor()
|
||||
cursor.execute(query)
|
||||
data = cursor.fetchall()
|
||||
conn.close()
|
||||
if data:
|
||||
df = pd.DataFrame(data, columns=['term','tf','idf','tf_idf_dict'])
|
||||
df.index = df.index + 1
|
||||
return df
|
||||
else:
|
||||
return False
|
||||
|
||||
def load_bobot_netral():
|
||||
query = """SELECT term, tf, idf, tf_idf_dict FROM bobot_netral"""
|
||||
conn = mysql.connect()
|
||||
cursor = conn.cursor()
|
||||
cursor.execute(query)
|
||||
data = cursor.fetchall()
|
||||
conn.close()
|
||||
if data:
|
||||
df = pd.DataFrame(data, columns=['term','tf','idf','tf_idf_dict'])
|
||||
df.index = df.index + 1
|
||||
return df
|
||||
else:
|
||||
return False
|
||||
|
||||
# route untuk halaman data training dan testing
|
||||
@app.route('/train-testing', methods=['GET','POST'])
|
||||
def train_tes():
|
||||
|
||||
_train = load_training()
|
||||
_test = load_testing()
|
||||
|
||||
msg="traintest done.."
|
||||
|
||||
if ( _train.empty == True or _test.empty == True ):
|
||||
return render_template('train_tes.html', )
|
||||
|
||||
else:
|
||||
return render_template('train_tes.html',
|
||||
train= _train.to_html(classes="table"),
|
||||
test= _test.to_html(classes="table"),
|
||||
msg=msg)
|
||||
|
||||
def load_training():
|
||||
query = """SELECT label, tweet_tokens_stemmed as tweet_list FROM dataset_training"""
|
||||
conn = mysql.connect()
|
||||
cursor = conn.cursor()
|
||||
cursor.execute(query)
|
||||
data = cursor.fetchall()
|
||||
conn.close()
|
||||
if data:
|
||||
df = pd.DataFrame(data, columns=['label','tweet_list'])
|
||||
df.index = df.index + 1
|
||||
return df
|
||||
else:
|
||||
return False
|
||||
|
||||
def load_testing():
|
||||
query = """SELECT label, tweet_tokens_stemmed as tweet_list FROM dataset_tes"""
|
||||
conn = mysql.connect()
|
||||
cursor = conn.cursor()
|
||||
cursor.execute(query)
|
||||
data = cursor.fetchall()
|
||||
conn.close()
|
||||
if data:
|
||||
df = pd.DataFrame(data, columns=['label','tweet_list'])
|
||||
df.index = df.index + 1
|
||||
return df
|
||||
else:
|
||||
return False
|
||||
|
||||
# route untuk halaman uji testing
|
||||
@app.route('/analisis-hasil', methods=['GET','POST'])
|
||||
def testing():
|
||||
|
||||
msg=""
|
||||
|
||||
# load data
|
||||
_dataset = load_dataset_processed()
|
||||
_train = load_train()
|
||||
_test = load_tes()
|
||||
_bobotdata = load_bobot_all()
|
||||
_bobotdata_pos = load_bobot_pos()
|
||||
_bobotdata_neg = load_bobot_neg()
|
||||
_bobotdata_net = load_bobot_net()
|
||||
|
||||
if (_dataset.empty == True or _train.empty == True or _test.empty == True or _bobotdata.empty == True or _bobotdata_neg.empty == True or _bobotdata_pos.empty == True or _bobotdata_net.empty == True):
|
||||
return render_template('uji_testing.html', )
|
||||
|
||||
else:
|
||||
dataset = pd.DataFrame(_dataset, columns=["label"])
|
||||
train = pd.DataFrame(_train, columns=["label","tweet_list"])
|
||||
test = pd.DataFrame(_test, columns=["label","tweet_list"])
|
||||
df_bobotdata = pd.DataFrame(_bobotdata, columns=["term","df","idf"])
|
||||
df_bobotdata_posnya = pd.DataFrame(_bobotdata_pos, columns=['term','tf','idf','tf_idf_dict'])
|
||||
df_bobotdata_netnya = pd.DataFrame(_bobotdata_net, columns=['term','tf','idf','tf_idf_dict'])
|
||||
df_bobotdata_negnya = pd.DataFrame(_bobotdata_neg, columns=['term','tf','idf','tf_idf_dict'])
|
||||
|
||||
datahasil = {}
|
||||
datahasil = naive_bayes(test, train, df_bobotdata_posnya, df_bobotdata_negnya, df_bobotdata_netnya, df_bobotdata)
|
||||
|
||||
show = pd.DataFrame(datahasil)
|
||||
show.reset_index(drop=True, inplace=True)
|
||||
show.index = show.index + 1
|
||||
|
||||
pd.set_option('future.no_silent_downcasting', True)
|
||||
show['Label_Prediksi'] = show['Label_Prediksi'].replace({'Positif': 1, 'Netral':2, 'Negatif':0})
|
||||
|
||||
show["label_asal"]=[x for x in test["label"]]
|
||||
|
||||
df_matrik = pd.DataFrame(show, columns=['label_asal','Label_Prediksi'])
|
||||
|
||||
confusion_matrix = pd.crosstab(df_matrik['label_asal'], df_matrik['Label_Prediksi'], rownames=['Actual'], colnames=['Predicted'])
|
||||
|
||||
# buat visualisasi data
|
||||
diagram_dataset_pie=piechart(dataset)
|
||||
kemunculan_kata=barchart(df_bobotdata[["term","df"]])
|
||||
|
||||
word_cloud_pos=get_wordcloud(dict(df_bobotdata_posnya[['term','tf_idf_dict']].values))
|
||||
word_cloud_neg=get_wordcloud(dict(df_bobotdata_negnya[['term','tf_idf_dict']].values))
|
||||
word_cloud_net=get_wordcloud(dict(df_bobotdata_netnya[['term','tf_idf_dict']].values))
|
||||
|
||||
msg="test done.."
|
||||
|
||||
return render_template('analisis_hasil.html',
|
||||
# Hasil Posterior
|
||||
show=show.to_html(classes="table"),
|
||||
# Confusion Matrix
|
||||
confusion_matrix=confusion_matrix.to_html(classes="table"),
|
||||
# Perhitungan Confusion Matrix
|
||||
akurasi= round(akurasi(confusion_matrix) * 100, 2),
|
||||
presisi_pos = round(presisi_pos(confusion_matrix) * 100, 2),
|
||||
presisi_net = round(presisi_net(confusion_matrix) * 100, 2),
|
||||
presisi_neg = round(presisi_neg(confusion_matrix) * 100, 2),
|
||||
rata_rata_presisi = round(rata_rata_presisi(confusion_matrix) * 100, 2),
|
||||
recall_pos = round(recall_pos(confusion_matrix) * 100, 2),
|
||||
recall_neg = round(recall_neg(confusion_matrix) * 100, 2),
|
||||
recall_net = round(recall_net(confusion_matrix) * 100, 2),
|
||||
rata_rata_recall = round(rata_rata_recall(confusion_matrix) * 100, 2),
|
||||
Fscore_pos = round(Fscore_pos(confusion_matrix) * 100, 2),
|
||||
Fscore_neg = round(Fscore_neg(confusion_matrix) * 100, 2),
|
||||
Fscore_net = round(Fscore_net(confusion_matrix) * 100, 2),
|
||||
rata_rata_Fscore = round(rata_rata_Fscore(confusion_matrix) * 100, 2),
|
||||
# Diagram Batang
|
||||
barJSON=kemunculan_kata,
|
||||
# Diagram Lingkaran
|
||||
pieJSON=diagram_dataset_pie,
|
||||
# Wordcloud
|
||||
img_data_pos=word_cloud_pos,
|
||||
img_data_net=word_cloud_net,
|
||||
img_data_neg=word_cloud_neg,
|
||||
msg=msg)
|
||||
|
||||
def load_dataset_proces():
|
||||
query = """SELECT label FROM dataset_procesed"""
|
||||
conn = mysql.connect()
|
||||
cursor = conn.cursor()
|
||||
cursor.execute(query)
|
||||
data = cursor.fetchall()
|
||||
conn.close()
|
||||
if data:
|
||||
df = pd.DataFrame(data, columns=['label'])
|
||||
return df
|
||||
else:
|
||||
return False
|
||||
|
||||
def load_train():
|
||||
query = """SELECT label, tweet_tokens_stemmed as tweet_list FROM dataset_training"""
|
||||
conn = mysql.connect()
|
||||
cursor = conn.cursor()
|
||||
cursor.execute(query)
|
||||
data = cursor.fetchall()
|
||||
conn.close()
|
||||
if data:
|
||||
df = pd.DataFrame(data, columns=['label','tweet_list'])
|
||||
return df
|
||||
else:
|
||||
return False
|
||||
|
||||
def load_tes():
|
||||
query = """SELECT label, tweet_tokens_stemmed as tweet_list FROM dataset_tes"""
|
||||
conn = mysql.connect()
|
||||
cursor = conn.cursor()
|
||||
cursor.execute(query)
|
||||
data = cursor.fetchall()
|
||||
conn.close()
|
||||
if data:
|
||||
df = pd.DataFrame(data, columns=['label','tweet_list'])
|
||||
return df
|
||||
else:
|
||||
return False
|
||||
|
||||
def load_bobot_all():
|
||||
query = """SELECT term, df, idf FROM bobot_data_all"""
|
||||
conn = mysql.connect()
|
||||
cursor = conn.cursor()
|
||||
cursor.execute(query)
|
||||
data = cursor.fetchall()
|
||||
conn.close()
|
||||
if data:
|
||||
df = pd.DataFrame(data, columns=['term','df','idf'])
|
||||
return df
|
||||
else:
|
||||
return False
|
||||
|
||||
def load_bobot_pos():
|
||||
query = """SELECT term, tf, idf, tf_idf_dict FROM bobot_positif"""
|
||||
conn = mysql.connect()
|
||||
cursor = conn.cursor()
|
||||
cursor.execute(query)
|
||||
data = cursor.fetchall()
|
||||
conn.close()
|
||||
if data:
|
||||
df = pd.DataFrame(data, columns=['term','tf','idf','tf_idf_dict'])
|
||||
return df
|
||||
else:
|
||||
return False
|
||||
|
||||
def load_bobot_neg():
|
||||
query = """SELECT term, tf, idf, tf_idf_dict FROM bobot_negatif"""
|
||||
conn = mysql.connect()
|
||||
cursor = conn.cursor()
|
||||
cursor.execute(query)
|
||||
data = cursor.fetchall()
|
||||
conn.close()
|
||||
if data:
|
||||
df = pd.DataFrame(data, columns=['term','tf','idf','tf_idf_dict'])
|
||||
return df
|
||||
else:
|
||||
return False
|
||||
|
||||
def load_bobot_net():
|
||||
query = """SELECT term, tf, idf, tf_idf_dict FROM bobot_netral"""
|
||||
conn = mysql.connect()
|
||||
cursor = conn.cursor()
|
||||
cursor.execute(query)
|
||||
data = cursor.fetchall()
|
||||
conn.close()
|
||||
if data:
|
||||
df = pd.DataFrame(data, columns=['term','tf','idf','tf_idf_dict'])
|
||||
return df
|
||||
else:
|
||||
return False
|
||||
|
||||
def pre_loaddata(table):
|
||||
query = "DELETE FROM `{}`;".format(table)
|
||||
query_reset_id = "TRUNCATE TABLE `{}`;".format(table)
|
||||
conn = mysql.connect()
|
||||
cursor = conn.cursor()
|
||||
cursor.execute(query)
|
||||
conn.commit()
|
||||
cursor.execute(query_reset_id)
|
||||
conn.commit()
|
||||
conn.close()
|
||||
return True
|
||||
|
||||
|
||||
if __name__ == '__main__':
|
||||
app.run(debug=True)
|
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
|
@ -0,0 +1,3 @@
|
|||
ini adalah dummy..
|
||||
|
||||
file upload (.xlsx) akan tersimpan pada folder assets..
|
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
|
@ -0,0 +1,17 @@
|
|||
import os # Import modul os untuk berinteraksi dengan sistem operasi
|
||||
from os.path import join, dirname # Import fungsi join dan dirname dari modul os.path
|
||||
from dotenv import load_dotenv # Import fungsi load_dotenv dari modul dotenv
|
||||
|
||||
# Gabungkan path file .env dengan direktori file Python yang sedang dijalankan
|
||||
dotenv_path = join(dirname(__file__), '.env')
|
||||
load_dotenv(dotenv_path) # Muat variabel lingkungan dari file .env ke dalam memori
|
||||
|
||||
# Ambil nilai variabel lingkungan dari file .env dan simpan ke dalam variabel
|
||||
database_username=os.environ.get('usernamenya') # Variabel untuk username database
|
||||
database_password=os.environ.get('passwordnya') # Variabel untuk password database
|
||||
database_ip=os.environ.get('db_ip') # Variabel untuk IP database
|
||||
database_name=os.environ.get('db_name') # Variabel untuk nama database
|
||||
secret_key=os.environ.get('SECRET_KEY') # Variabel untuk secret key
|
||||
env=os.environ.get('FLASK_ENV') # Variabel untuk lingkungan aplikasi (development, production, dll)
|
||||
FILENAMES=os.environ.get('FILENAMES') # Variabel untuk nama file
|
||||
assets_dir=FILENAMES+'/assets/' # Variabel untuk path direktori assets dalam aplikasi
|
File diff suppressed because it is too large
Load Diff
|
@ -0,0 +1,8 @@
|
|||
from flask_wtf import FlaskForm # Import modul FlaskForm dari flask_wtf untuk membuat formulir
|
||||
from flask_wtf.file import FileField, FileRequired, FileAllowed # Import modul yang berkaitan dengan upload file
|
||||
from wtforms import SubmitField # Import modul SubmitField dari wtforms untuk membuat tombol submit
|
||||
|
||||
class DocumentUploadForm(FlaskForm): # Definisikan kelas DocumentUploadForm yang mewarisi FlaskForm
|
||||
document = FileField('Document', validators=[FileRequired('Mohon Masukkan File Excel'), FileAllowed(['xlsx'], 'File Tidak Berformat Excel!')])
|
||||
# Field untuk upload file dengan nama 'Document', dengan validasi wajib diisi dan format file yang diperbolehkan xlsx
|
||||
submit = SubmitField(label=('submit')) # Tombol submit dengan label 'submit'
|
|
@ -0,0 +1,47 @@
|
|||
import pandas as pd
|
||||
import numpy as np
|
||||
import json
|
||||
import plotly
|
||||
import plotly.express as px
|
||||
from wordcloud import WordCloud
|
||||
import base64
|
||||
import io
|
||||
|
||||
# Fungsi untuk mengubah legenda pada plot
|
||||
def newLegend(fig, newNames):
|
||||
newLabels = []
|
||||
for item in newNames:
|
||||
for i, elem in enumerate(fig.data[0].labels):
|
||||
if elem == item:
|
||||
newLabels.append(newNames[item])
|
||||
fig.data[0].labels = np.array(newLabels)
|
||||
return(fig)
|
||||
|
||||
# Fungsi untuk membuat bar chart
|
||||
def barchart(kamusall):
|
||||
df3 = pd.DataFrame(kamusall, columns=["term","df"])
|
||||
short_df3 = df3.sort_values(by='df', ascending=False)
|
||||
fig = px.bar(short_df3.head(50), x='term', y='df')
|
||||
barJSON = json.dumps(fig, cls=plotly.utils.PlotlyJSONEncoder)
|
||||
return barJSON
|
||||
|
||||
# Fungsi untuk membuat pie chart
|
||||
def piechart(dataset):
|
||||
df2 = pd.DataFrame(dataset, columns=["label"])
|
||||
grup = df2.groupby('label').size().reset_index(name='size')
|
||||
fig = px.pie(grup, values='size' , names='label')
|
||||
fig=newLegend(fig, {0:"0 - Negatif",
|
||||
1:"1 - Positif",
|
||||
2:"2 - Netral"})
|
||||
pieJSON = json.dumps(fig, cls=plotly.utils.PlotlyJSONEncoder)
|
||||
return pieJSON
|
||||
|
||||
# Fungsi untuk membuat word cloud
|
||||
def get_wordcloud(dataframe):
|
||||
pil_img = WordCloud(width=800, height=500)
|
||||
wordCloud=pil_img.generate_from_frequencies(dataframe).to_image()
|
||||
img= io.BytesIO()
|
||||
wordCloud.save(img,"PNG")
|
||||
img.seek(0)
|
||||
img_b64=base64.b64encode(img.getvalue()).decode()
|
||||
return img_b64
|
|
@ -0,0 +1,271 @@
|
|||
import pandas as pd
|
||||
import numpy as np
|
||||
from tf_idf import *
|
||||
from preprocesing_text import select_unique as unique
|
||||
|
||||
|
||||
# perhitungan akurasi menggunakan confusion_matrix
|
||||
def akurasi(confusion_matrix):
|
||||
# Menghitung total prediksi yang benar (diagonal dari confusion matrix)
|
||||
total_prediksi_benar = confusion_matrix.iloc[0, 0] + confusion_matrix.iloc[1, 1] + confusion_matrix.iloc[2, 2]
|
||||
|
||||
# Menghitung total jumlah prediksi untuk semua kelas
|
||||
total_prediksi = confusion_matrix.values.sum()
|
||||
|
||||
# Menghitung akurasi
|
||||
return total_prediksi_benar / total_prediksi
|
||||
|
||||
#Menghitung Presisi Positif
|
||||
def presisi_pos(confusion_matrix):
|
||||
true_positive = confusion_matrix.iloc[1, 1]
|
||||
false_positive = confusion_matrix.iloc[1, 0] + confusion_matrix.iloc[1, 2]
|
||||
|
||||
precision = true_positive / (true_positive + false_positive)
|
||||
|
||||
return precision
|
||||
|
||||
#Menghitung Presisi Netral
|
||||
def presisi_net(confusion_matrix):
|
||||
true_neutral = confusion_matrix.iloc[2, 2]
|
||||
false_neutral = confusion_matrix.iloc[2, 0] + confusion_matrix.iloc[2, 1]
|
||||
|
||||
precision = true_neutral / (true_neutral + false_neutral)
|
||||
|
||||
return precision
|
||||
|
||||
#Menghitung Presisi Negatif
|
||||
def presisi_neg(confusion_matrix):
|
||||
true_negative = confusion_matrix.iloc[0, 0]
|
||||
false_negative = confusion_matrix.iloc[0, 1] + confusion_matrix.iloc[0, 2]
|
||||
|
||||
precision = true_negative / (true_negative + false_negative)
|
||||
|
||||
return precision
|
||||
|
||||
def rata_rata_presisi(confusion_matrix):
|
||||
presisi_positif = presisi_pos(confusion_matrix)
|
||||
presisi_netral = presisi_net(confusion_matrix)
|
||||
presisi_negatif = presisi_neg(confusion_matrix)
|
||||
|
||||
rata_rata = (presisi_positif + presisi_netral + presisi_negatif) / 3
|
||||
|
||||
return rata_rata
|
||||
|
||||
#Menghitung Recall Positif
|
||||
def recall_pos(confusion_matrix):
|
||||
true_positive = confusion_matrix.iloc[1, 1]
|
||||
false_negative = confusion_matrix.iloc[0, 1] + confusion_matrix.iloc[0, 2]
|
||||
false_neutral = confusion_matrix.iloc[2, 0] + confusion_matrix.iloc[2, 1]
|
||||
|
||||
recall = true_positive / (true_positive + false_negative + false_neutral)
|
||||
|
||||
return recall
|
||||
|
||||
#Menghitung Recall Netral
|
||||
def recall_net(confusion_matrix):
|
||||
true_neutral = confusion_matrix.iloc[2, 2]
|
||||
false_negative = confusion_matrix.iloc[0, 1] + confusion_matrix.iloc[0, 2]
|
||||
false_positive = confusion_matrix.iloc[1, 0] + confusion_matrix.iloc[1, 2]
|
||||
|
||||
recall = true_neutral / (true_neutral + false_negative + false_positive)
|
||||
|
||||
return recall
|
||||
|
||||
#Menghitung Recall Negatif
|
||||
def recall_neg(confusion_matrix):
|
||||
true_negative = confusion_matrix.iloc[0, 0]
|
||||
false_neutral = confusion_matrix.iloc[2, 1] + confusion_matrix.iloc[2, 0]
|
||||
false_positive = confusion_matrix.iloc[1, 0] + confusion_matrix.iloc[1, 2]
|
||||
|
||||
recall = true_negative / (true_negative + false_neutral + false_positive)
|
||||
|
||||
return recall
|
||||
|
||||
def rata_rata_recall(confusion_matrix):
|
||||
recall_positif = recall_pos(confusion_matrix)
|
||||
recall_netral = recall_net(confusion_matrix)
|
||||
recall_negatif = recall_neg(confusion_matrix)
|
||||
|
||||
rata_rata = (recall_positif + recall_netral + recall_negatif) / 3
|
||||
|
||||
return rata_rata
|
||||
|
||||
#Menghitung F1-Score Positif
|
||||
def Fscore_pos(confusion_matrix):
|
||||
true_positive = confusion_matrix.iloc[1, 1]
|
||||
false_positive = confusion_matrix.iloc[1, 0] + confusion_matrix.iloc[1, 2]
|
||||
false_negative = confusion_matrix.iloc[0, 1] + confusion_matrix.iloc[0, 2]
|
||||
false_neutral = confusion_matrix.iloc[2, 0] + confusion_matrix.iloc[2, 1]
|
||||
|
||||
precision = true_positive / (true_positive + false_positive)
|
||||
recall = true_positive / (true_positive + false_negative + false_neutral)
|
||||
|
||||
f1_score = 2 * (precision * recall) / (precision + recall) if precision + recall > 0 else 0
|
||||
|
||||
return f1_score
|
||||
|
||||
#Menghitung F1-Score Netral
|
||||
def Fscore_net(confusion_matrix):
|
||||
true_neutral = confusion_matrix.iloc[2, 2]
|
||||
false_positive = confusion_matrix.iloc[1, 0] + confusion_matrix.iloc[1, 2]
|
||||
false_negative = confusion_matrix.iloc[0, 1] + confusion_matrix.iloc[0, 2]
|
||||
false_neutral = confusion_matrix.iloc[2, 0] + confusion_matrix.iloc[2, 1]
|
||||
|
||||
precision = true_neutral / (true_neutral + false_neutral)
|
||||
recall = true_neutral / (true_neutral + false_negative + false_positive)
|
||||
|
||||
f1_score = 2 * (precision * recall) / (precision + recall) if precision + recall > 0 else 0
|
||||
|
||||
return f1_score
|
||||
|
||||
#Menghitung F1-Score Negatif
|
||||
def Fscore_neg(confusion_matrix):
|
||||
true_negative = confusion_matrix.iloc[0, 0]
|
||||
false_positive = confusion_matrix.iloc[1, 0] + confusion_matrix.iloc[1, 2]
|
||||
false_negative = confusion_matrix.iloc[0, 1] + confusion_matrix.iloc[0, 2]
|
||||
false_neutral = confusion_matrix.iloc[2, 0] + confusion_matrix.iloc[2, 1]
|
||||
|
||||
precision = true_negative / (true_negative + false_negative)
|
||||
recall = true_negative / (true_negative + false_positive + false_neutral)
|
||||
|
||||
f1_score = 2 * (precision * recall) / (precision + recall) if precision + recall > 0 else 0
|
||||
|
||||
return f1_score
|
||||
|
||||
def rata_rata_Fscore(confusion_matrix):
|
||||
Fscore_positif = Fscore_pos(confusion_matrix)
|
||||
Fscore_netral = Fscore_net(confusion_matrix)
|
||||
Fscore_negatif = Fscore_neg(confusion_matrix)
|
||||
|
||||
rata_rata = (Fscore_positif + Fscore_netral + Fscore_negatif) / 3
|
||||
|
||||
return rata_rata
|
||||
|
||||
# hitung likelihood probability
|
||||
def hitung_bayes(found,n_tfidf,n_totaltfidf,total_idf):
|
||||
if found == "true":
|
||||
return ((n_tfidf+1) / ((n_totaltfidf)+total_idf))
|
||||
elif found == "false":
|
||||
return ( 1 / ((n_totaltfidf)+total_idf))
|
||||
|
||||
# perhitungan prior dan posterior probability
|
||||
def score_probnb(data, n_dok, n_jumpos, n_jumneg, n_jumnet):
|
||||
# perkalian semua score pada kelas di dataframe
|
||||
score_tot_pos = np.prod(np.array(data["positif"]))
|
||||
score_tot_net = np.prod(np.array(data["netral"]))
|
||||
score_tot_neg = np.prod(np.array(data["negatif"]))
|
||||
|
||||
# hasil variabel skor disini merupakan hasil dari perhitungan posterior probability
|
||||
score={
|
||||
"Positif": (n_jumpos/n_dok) * score_tot_pos,
|
||||
"Netral": (n_jumnet/n_dok) * score_tot_net,
|
||||
"Negatif": (n_jumneg/n_dok) * score_tot_neg,
|
||||
|
||||
}
|
||||
return score
|
||||
|
||||
def naive_bayes(test, train, bobot_pos, bobot_neg, bobot_net, idf_all):
|
||||
print("proses naive bayes (many)")
|
||||
|
||||
# data train
|
||||
df_train = pd.DataFrame(train, columns=["label","tweet_list"])
|
||||
|
||||
# data tes
|
||||
df_files = pd.DataFrame(test, columns=["label","tweet_list"])
|
||||
|
||||
df_files['tweet_list'] = df_files['tweet_list'].apply(ast.literal_eval).tolist()
|
||||
df_files['unique_term'] = df_files['tweet_list'].apply(unique)
|
||||
|
||||
ds_bobot_pos = pd.DataFrame(bobot_pos, columns=["term", "tf_idf_dict"])
|
||||
ds_bobot_net = pd.DataFrame(bobot_net, columns=["term", "tf_idf_dict"])
|
||||
ds_bobot_neg = pd.DataFrame(bobot_neg, columns=["term", "tf_idf_dict"])
|
||||
ds_bobot_all = pd.DataFrame(idf_all, columns=["term", "idf"])
|
||||
|
||||
gk = df_train.groupby('label')
|
||||
n_dok = gk.size()
|
||||
|
||||
n_dok, n_jumpos, n_jumneg, n_jumnet = n_dok.sum(), n_dok[1], n_dok[0], n_dok[2]
|
||||
|
||||
datahasil={}
|
||||
|
||||
x = 0
|
||||
while x < len(df_files):
|
||||
n_label_prediksi={}
|
||||
n_hasil_nb = naive_bayes_once("satuan", df_files['unique_term'].iloc[x], ds_bobot_pos, ds_bobot_neg, ds_bobot_net, ds_bobot_all)
|
||||
n_score_nb = score_probnb(n_hasil_nb, n_dok, n_jumpos, n_jumneg, n_jumnet)
|
||||
|
||||
if n_score_nb["Negatif"] > n_score_nb["Positif"] and n_score_nb["Negatif"] > n_score_nb["Netral"]:
|
||||
n_label_prediksi[x] = "Negatif"
|
||||
elif n_score_nb["Positif"] > n_score_nb["Negatif"] and n_score_nb["Positif"] > n_score_nb["Netral"]:
|
||||
n_label_prediksi[x] = "Positif"
|
||||
elif n_score_nb["Netral"] > n_score_nb["Negatif"] and n_score_nb["Netral"] > n_score_nb["Positif"]:
|
||||
n_label_prediksi[x] = "Netral"
|
||||
else:
|
||||
n_label_prediksi[x] = "Sentimen Tidak Diketahui"
|
||||
|
||||
datahasil[x] = {
|
||||
"Positif": n_score_nb["Positif"],
|
||||
"Netral": n_score_nb["Netral"],
|
||||
"Negatif": n_score_nb["Negatif"],
|
||||
"Label_Prediksi": n_label_prediksi[x]
|
||||
}
|
||||
|
||||
n_hasil_nb = None
|
||||
n_score_nb = None
|
||||
n_label_prediksi = None
|
||||
x+=1
|
||||
|
||||
datahasil_final=pd.DataFrame(columns=["Positif","Netral", "Negatif", "Label_Prediksi"])
|
||||
x=0
|
||||
while x < len(datahasil.keys()):
|
||||
datahasil_final.loc[x] = datahasil[x]["Positif"], datahasil[x]["Netral"], datahasil[x]["Negatif"], datahasil[x]["Label_Prediksi"]
|
||||
x+=1
|
||||
return datahasil_final
|
||||
|
||||
def naive_bayes_once(mode, files, bobot_pos, bobot_neg, bobot_net, idf_all):
|
||||
# read dataset
|
||||
df_files = pd.DataFrame(files, columns=["term"])
|
||||
ds_bobot_pos = pd.DataFrame(bobot_pos, columns=["term", "tf_idf_dict"])
|
||||
ds_bobot_neg = pd.DataFrame(bobot_neg, columns=["term", "tf_idf_dict"])
|
||||
ds_bobot_net = pd.DataFrame(bobot_net, columns=["term", "tf_idf_dict"])
|
||||
ds_bobot_all = pd.DataFrame(idf_all, columns=["term", "idf"])
|
||||
|
||||
jml_idf_all = ds_bobot_all["idf"].sum()
|
||||
|
||||
if mode == "satuan":
|
||||
positif, negatif, netral = {}, {}, {}
|
||||
|
||||
for j,term in enumerate(df_files["term"]):
|
||||
# positif
|
||||
for i,kata in enumerate(ds_bobot_pos['term']):
|
||||
if term == kata:
|
||||
positif[term] = hitung_bayes("true", ds_bobot_pos["tf_idf_dict"][i], ds_bobot_pos["tf_idf_dict"].sum(), jml_idf_all)
|
||||
break
|
||||
elif term != kata :
|
||||
positif[term] = hitung_bayes("false", 0, ds_bobot_pos["tf_idf_dict"].sum(), jml_idf_all)
|
||||
|
||||
# negatif
|
||||
for i,kata in enumerate(ds_bobot_neg['term']):
|
||||
if term == kata:
|
||||
negatif[term] = hitung_bayes("true", ds_bobot_neg["tf_idf_dict"][i], ds_bobot_neg["tf_idf_dict"].sum(), jml_idf_all)
|
||||
break
|
||||
elif term != kata :
|
||||
negatif[term] = hitung_bayes("false", 0, ds_bobot_neg["tf_idf_dict"].sum(), jml_idf_all)
|
||||
|
||||
# netral
|
||||
for i,kata in enumerate(ds_bobot_net['term']):
|
||||
if term == kata:
|
||||
netral[term] = hitung_bayes("true", ds_bobot_net["tf_idf_dict"][i], ds_bobot_net["tf_idf_dict"].sum(), jml_idf_all)
|
||||
break
|
||||
elif term != kata :
|
||||
netral[term] = hitung_bayes("false", 0, ds_bobot_net["tf_idf_dict"].sum(), jml_idf_all)
|
||||
|
||||
df_files["positif"] = df_files["term"].map(positif)
|
||||
df_files["netral"] = df_files["term"].map(netral)
|
||||
df_files["negatif"] = df_files["term"].map(negatif)
|
||||
|
||||
else:
|
||||
print("data kosong!!")
|
||||
pass
|
||||
|
||||
return df_files
|
|
@ -0,0 +1,4 @@
|
|||
import os
|
||||
|
||||
def _nltkdir():
|
||||
return os.getenv('FILENAMES')
|
Binary file not shown.
|
@ -0,0 +1,148 @@
|
|||
import pandas as pd
|
||||
import nltk_config as nltkdr
|
||||
import nltk
|
||||
import string
|
||||
import re
|
||||
from Sastrawi.Stemmer.StemmerFactory import StemmerFactory
|
||||
from Sastrawi.StopWordRemover.StopWordRemoverFactory import StopWordRemoverFactory
|
||||
from nltk.tokenize import word_tokenize
|
||||
from nltk.corpus import stopwords
|
||||
|
||||
nltk.download('punkt')
|
||||
|
||||
_npath = nltkdr._nltkdir()
|
||||
# load nltk data from dir
|
||||
nltk.data.path.append(_npath + '/resources/punkt')
|
||||
nltk.data.path.append(_npath + '/resources/stopwords')
|
||||
|
||||
def select_unique(text):
|
||||
return pd.Series(text).unique()
|
||||
|
||||
# hapus unique simbol
|
||||
def remove_tweet_special(text):
|
||||
# hapus tab, new line, ans back slice
|
||||
text = text.replace('\\t'," ").replace('\\n'," ").replace('\\u'," ").replace('\\',"")
|
||||
# hapus non ASCII (emoticon, chinese word, .etc)
|
||||
text = text.encode('ascii', 'replace').decode('ascii')
|
||||
# hapus mention, link, hashtag
|
||||
text = ' '.join(re.sub("([@#][A-Za-z0-9]+)|(\w+:\/\/\S+)", " ", text).split())
|
||||
# hapus incomplete URL
|
||||
text = re.sub('http[s]?://\S+', '', text)
|
||||
return text
|
||||
|
||||
#hapus number
|
||||
def remove_number(text):
|
||||
return re.sub(r"\d+", "", text)
|
||||
|
||||
#hapus punctuation
|
||||
def remove_punctuation(text):
|
||||
return text.translate(str.maketrans("","",string.punctuation))
|
||||
|
||||
#hapus whitespace leading & trailing
|
||||
def remove_whitespace_LT(text):
|
||||
return text.strip()
|
||||
|
||||
#remove multiple whitespace into single whitespace
|
||||
def remove_whitespace_multiple(text):
|
||||
return re.sub('\s+',' ',text)
|
||||
|
||||
# remove single char
|
||||
def remove_singl_char(text):
|
||||
return re.sub(r"\b[a-zA-Z]\b", "", text)
|
||||
|
||||
# Tokenizing
|
||||
def word_tokenize_wrapper(text):
|
||||
return word_tokenize(text)
|
||||
|
||||
# Normalisasi kata
|
||||
normalizad_word = pd.read_excel(_npath + "/normalisasi.xlsx")
|
||||
normalizad_word_dict = {}
|
||||
|
||||
for index, row in normalizad_word.iterrows():
|
||||
if row.iloc[0] not in normalizad_word_dict:
|
||||
normalizad_word_dict[row.iloc[0]] = row.iloc[1]
|
||||
|
||||
def normalized_term(document):
|
||||
return [normalizad_word_dict[term] if term in normalizad_word_dict else term for term in document]
|
||||
|
||||
# Remove stopword
|
||||
list_stopwords = stopwords.words('indonesian')
|
||||
|
||||
factorysw = StopWordRemoverFactory()
|
||||
list_stopwords.extend(factorysw.get_stop_words())
|
||||
|
||||
list_stopwords.extend(['yg', 'dg', 'rt', 'dgn', 'ny', 'd', 'klo',
|
||||
'kalo', 'amp', 'biar', 'bikin', 'bilang',
|
||||
'gak', 'ga', 'krn', 'nya', 'nih', 'sih',
|
||||
'si', 'tau', 'tdk', 'tuh', 'utk', 'ya',
|
||||
'jd', 'jgn', 'sdh', 'aja', 'n', 't', 'p', 'ak',
|
||||
'nyg', 'hehe', 'pen', 'u', 'nan', 'loh', 'rt',
|
||||
'&', 'yah'])
|
||||
|
||||
txt_stopword = pd.read_csv(_npath + "/stopwords.csv", names=["stopwords"], header=None)
|
||||
list_stopwords.extend(txt_stopword["stopwords"][0].split(' '))
|
||||
|
||||
list_stopwords = set(list_stopwords)
|
||||
|
||||
def stopwords_removal(words):
|
||||
return [word for word in words if word not in list_stopwords]
|
||||
|
||||
# Steamming kata
|
||||
|
||||
# create stemmer
|
||||
factory = StemmerFactory()
|
||||
stemmer = factory.create_stemmer()
|
||||
|
||||
# stemmed
|
||||
def stemmed_wrapper(term):
|
||||
return stemmer.stem(term)
|
||||
|
||||
term_dict = {}
|
||||
|
||||
def normalize_documents_sastrawi(dataset):
|
||||
term_dict = {}
|
||||
|
||||
for document in dataset:
|
||||
# term_dict = { term for term in document if term not in term_dict term_dict[term] = ' ' }
|
||||
for term in document:
|
||||
if term not in term_dict:
|
||||
term_dict[term] = ' '
|
||||
|
||||
for term in term_dict:
|
||||
term_dict[term] = stemmed_wrapper(term)
|
||||
|
||||
return term_dict
|
||||
|
||||
# Preprosesing menggunakan fungsi yang ada
|
||||
# def text_preprocessing(dataset, mode):
|
||||
# if mode == "satuan":
|
||||
# Twit_data = pd.DataFrame(list(dataset.items()), columns=['tweets'])
|
||||
# else:
|
||||
# Twit_data = pd.DataFrame(dataset, columns=['label', 'tweets'])
|
||||
|
||||
# Twit_data['tweets'] = Twit_data['tweets'].astype(str)
|
||||
|
||||
# # Case Folding
|
||||
# Twit_data['tweets_case'] = Twit_data['tweets'].str.lower()
|
||||
|
||||
# # Data Cleaning
|
||||
# Twit_data['tweets'] = Twit_data['tweets_case'].apply(remove_tweet_special)
|
||||
# Twit_data['tweets'] = Twit_data['tweets_case'].apply(remove_number)
|
||||
# Twit_data['tweets'] = Twit_data['tweets_case'].apply(remove_punctuation)
|
||||
# Twit_data['tweets'] = Twit_data['tweets_case'].apply(remove_whitespace_LT)
|
||||
# Twit_data['tweets'] = Twit_data['tweets_case'].apply(remove_whitespace_multiple)
|
||||
# Twit_data['tweets'] = Twit_data['tweets_case'].apply(remove_singl_char)
|
||||
|
||||
# # Tokenizing
|
||||
# Twit_data['tweets_tokenizing'] = Twit_data['tweets_case'].apply(word_tokenize_wrapper)
|
||||
|
||||
# # Normalisasi kata
|
||||
# Twit_data['tweet_normalized'] = Twit_data['tweets_tokenizing'].apply(normalized_term)
|
||||
|
||||
# # Remove stopword
|
||||
# Twit_data['tweet_tokens_WSW'] = Twit_data['tweet_normalized'].apply(stopwords_removal)
|
||||
|
||||
# # Stemming kata
|
||||
# Twit_data['tweet_tokens_stemmed'] = Twit_data['tweet_tokens_WSW'].apply(stemmed_wrapper)
|
||||
|
||||
# return Twit_data[['tweets_case', 'tweets_tokenizing', 'tweet_normalized', 'tweet_tokens_WSW', 'tweet_tokens_stemmed']]
|
|
@ -0,0 +1,13 @@
|
|||
Flask==1.1.2
|
||||
Flask-Bcrypt==0.7.1
|
||||
Flask-MySQL==1.5.2
|
||||
Flask-WTF==0.14.3
|
||||
nltk==3.5
|
||||
numpy==1.19.0
|
||||
pandas==1.1.5
|
||||
plotly==4.5.0
|
||||
python-dotenv==0.17.0
|
||||
requests==2.25.1
|
||||
Sastrawi==1.0.1
|
||||
wordcloud==1.8.1
|
||||
xlrd==1.2.0
|
Binary file not shown.
|
@ -0,0 +1,98 @@
|
|||
Pretrained Punkt Models -- Jan Strunk (New version trained after issues 313 and 514 had been corrected)
|
||||
|
||||
Most models were prepared using the test corpora from Kiss and Strunk (2006). Additional models have
|
||||
been contributed by various people using NLTK for sentence boundary detection.
|
||||
|
||||
For information about how to use these models, please confer the tokenization HOWTO:
|
||||
http://nltk.googlecode.com/svn/trunk/doc/howto/tokenize.html
|
||||
and chapter 3.8 of the NLTK book:
|
||||
http://nltk.googlecode.com/svn/trunk/doc/book/ch03.html#sec-segmentation
|
||||
|
||||
There are pretrained tokenizers for the following languages:
|
||||
|
||||
File Language Source Contents Size of training corpus(in tokens) Model contributed by
|
||||
=======================================================================================================================================================================
|
||||
czech.pickle Czech Multilingual Corpus 1 (ECI) Lidove Noviny ~345,000 Jan Strunk / Tibor Kiss
|
||||
Literarni Noviny
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
danish.pickle Danish Avisdata CD-Rom Ver. 1.1. 1995 Berlingske Tidende ~550,000 Jan Strunk / Tibor Kiss
|
||||
(Berlingske Avisdata, Copenhagen) Weekend Avisen
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
dutch.pickle Dutch Multilingual Corpus 1 (ECI) De Limburger ~340,000 Jan Strunk / Tibor Kiss
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
english.pickle English Penn Treebank (LDC) Wall Street Journal ~469,000 Jan Strunk / Tibor Kiss
|
||||
(American)
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
estonian.pickle Estonian University of Tartu, Estonia Eesti Ekspress ~359,000 Jan Strunk / Tibor Kiss
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
finnish.pickle Finnish Finnish Parole Corpus, Finnish Books and major national ~364,000 Jan Strunk / Tibor Kiss
|
||||
Text Bank (Suomen Kielen newspapers
|
||||
Tekstipankki)
|
||||
Finnish Center for IT Science
|
||||
(CSC)
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
french.pickle French Multilingual Corpus 1 (ECI) Le Monde ~370,000 Jan Strunk / Tibor Kiss
|
||||
(European)
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
german.pickle German Neue Zürcher Zeitung AG Neue Zürcher Zeitung ~847,000 Jan Strunk / Tibor Kiss
|
||||
(Switzerland) CD-ROM
|
||||
(Uses "ss"
|
||||
instead of "ß")
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
greek.pickle Greek Efstathios Stamatatos To Vima (TO BHMA) ~227,000 Jan Strunk / Tibor Kiss
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
italian.pickle Italian Multilingual Corpus 1 (ECI) La Stampa, Il Mattino ~312,000 Jan Strunk / Tibor Kiss
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
norwegian.pickle Norwegian Centre for Humanities Bergens Tidende ~479,000 Jan Strunk / Tibor Kiss
|
||||
(Bokmål and Information Technologies,
|
||||
Nynorsk) Bergen
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
polish.pickle Polish Polish National Corpus Literature, newspapers, etc. ~1,000,000 Krzysztof Langner
|
||||
(http://www.nkjp.pl/)
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
portuguese.pickle Portuguese CETENFolha Corpus Folha de São Paulo ~321,000 Jan Strunk / Tibor Kiss
|
||||
(Brazilian) (Linguateca)
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
slovene.pickle Slovene TRACTOR Delo ~354,000 Jan Strunk / Tibor Kiss
|
||||
Slovene Academy for Arts
|
||||
and Sciences
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
spanish.pickle Spanish Multilingual Corpus 1 (ECI) Sur ~353,000 Jan Strunk / Tibor Kiss
|
||||
(European)
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
swedish.pickle Swedish Multilingual Corpus 1 (ECI) Dagens Nyheter ~339,000 Jan Strunk / Tibor Kiss
|
||||
(and some other texts)
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
turkish.pickle Turkish METU Turkish Corpus Milliyet ~333,000 Jan Strunk / Tibor Kiss
|
||||
(Türkçe Derlem Projesi)
|
||||
University of Ankara
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
|
||||
The corpora contained about 400,000 tokens on average and mostly consisted of newspaper text converted to
|
||||
Unicode using the codecs module.
|
||||
|
||||
Kiss, Tibor and Strunk, Jan (2006): Unsupervised Multilingual Sentence Boundary Detection.
|
||||
Computational Linguistics 32: 485-525.
|
||||
|
||||
---- Training Code ----
|
||||
|
||||
# import punkt
|
||||
import nltk.tokenize.punkt
|
||||
|
||||
# Make a new Tokenizer
|
||||
tokenizer = nltk.tokenize.punkt.PunktSentenceTokenizer()
|
||||
|
||||
# Read in training corpus (one example: Slovene)
|
||||
import codecs
|
||||
text = codecs.open("slovene.plain","Ur","iso-8859-2").read()
|
||||
|
||||
# Train tokenizer
|
||||
tokenizer.train(text)
|
||||
|
||||
# Dump pickled tokenizer
|
||||
import pickle
|
||||
out = open("slovene.pickle","wb")
|
||||
pickle.dump(tokenizer, out)
|
||||
out.close()
|
||||
|
||||
---------
|
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
|
@ -0,0 +1,98 @@
|
|||
Pretrained Punkt Models -- Jan Strunk (New version trained after issues 313 and 514 had been corrected)
|
||||
|
||||
Most models were prepared using the test corpora from Kiss and Strunk (2006). Additional models have
|
||||
been contributed by various people using NLTK for sentence boundary detection.
|
||||
|
||||
For information about how to use these models, please confer the tokenization HOWTO:
|
||||
http://nltk.googlecode.com/svn/trunk/doc/howto/tokenize.html
|
||||
and chapter 3.8 of the NLTK book:
|
||||
http://nltk.googlecode.com/svn/trunk/doc/book/ch03.html#sec-segmentation
|
||||
|
||||
There are pretrained tokenizers for the following languages:
|
||||
|
||||
File Language Source Contents Size of training corpus(in tokens) Model contributed by
|
||||
=======================================================================================================================================================================
|
||||
czech.pickle Czech Multilingual Corpus 1 (ECI) Lidove Noviny ~345,000 Jan Strunk / Tibor Kiss
|
||||
Literarni Noviny
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
danish.pickle Danish Avisdata CD-Rom Ver. 1.1. 1995 Berlingske Tidende ~550,000 Jan Strunk / Tibor Kiss
|
||||
(Berlingske Avisdata, Copenhagen) Weekend Avisen
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
dutch.pickle Dutch Multilingual Corpus 1 (ECI) De Limburger ~340,000 Jan Strunk / Tibor Kiss
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
english.pickle English Penn Treebank (LDC) Wall Street Journal ~469,000 Jan Strunk / Tibor Kiss
|
||||
(American)
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
estonian.pickle Estonian University of Tartu, Estonia Eesti Ekspress ~359,000 Jan Strunk / Tibor Kiss
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
finnish.pickle Finnish Finnish Parole Corpus, Finnish Books and major national ~364,000 Jan Strunk / Tibor Kiss
|
||||
Text Bank (Suomen Kielen newspapers
|
||||
Tekstipankki)
|
||||
Finnish Center for IT Science
|
||||
(CSC)
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
french.pickle French Multilingual Corpus 1 (ECI) Le Monde ~370,000 Jan Strunk / Tibor Kiss
|
||||
(European)
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
german.pickle German Neue Zürcher Zeitung AG Neue Zürcher Zeitung ~847,000 Jan Strunk / Tibor Kiss
|
||||
(Switzerland) CD-ROM
|
||||
(Uses "ss"
|
||||
instead of "ß")
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
greek.pickle Greek Efstathios Stamatatos To Vima (TO BHMA) ~227,000 Jan Strunk / Tibor Kiss
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
italian.pickle Italian Multilingual Corpus 1 (ECI) La Stampa, Il Mattino ~312,000 Jan Strunk / Tibor Kiss
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
norwegian.pickle Norwegian Centre for Humanities Bergens Tidende ~479,000 Jan Strunk / Tibor Kiss
|
||||
(Bokmål and Information Technologies,
|
||||
Nynorsk) Bergen
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
polish.pickle Polish Polish National Corpus Literature, newspapers, etc. ~1,000,000 Krzysztof Langner
|
||||
(http://www.nkjp.pl/)
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
portuguese.pickle Portuguese CETENFolha Corpus Folha de São Paulo ~321,000 Jan Strunk / Tibor Kiss
|
||||
(Brazilian) (Linguateca)
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
slovene.pickle Slovene TRACTOR Delo ~354,000 Jan Strunk / Tibor Kiss
|
||||
Slovene Academy for Arts
|
||||
and Sciences
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
spanish.pickle Spanish Multilingual Corpus 1 (ECI) Sur ~353,000 Jan Strunk / Tibor Kiss
|
||||
(European)
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
swedish.pickle Swedish Multilingual Corpus 1 (ECI) Dagens Nyheter ~339,000 Jan Strunk / Tibor Kiss
|
||||
(and some other texts)
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
turkish.pickle Turkish METU Turkish Corpus Milliyet ~333,000 Jan Strunk / Tibor Kiss
|
||||
(Türkçe Derlem Projesi)
|
||||
University of Ankara
|
||||
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------
|
||||
|
||||
The corpora contained about 400,000 tokens on average and mostly consisted of newspaper text converted to
|
||||
Unicode using the codecs module.
|
||||
|
||||
Kiss, Tibor and Strunk, Jan (2006): Unsupervised Multilingual Sentence Boundary Detection.
|
||||
Computational Linguistics 32: 485-525.
|
||||
|
||||
---- Training Code ----
|
||||
|
||||
# import punkt
|
||||
import nltk.tokenize.punkt
|
||||
|
||||
# Make a new Tokenizer
|
||||
tokenizer = nltk.tokenize.punkt.PunktSentenceTokenizer()
|
||||
|
||||
# Read in training corpus (one example: Slovene)
|
||||
import codecs
|
||||
text = codecs.open("slovene.plain","Ur","iso-8859-2").read()
|
||||
|
||||
# Train tokenizer
|
||||
tokenizer.train(text)
|
||||
|
||||
# Dump pickled tokenizer
|
||||
import pickle
|
||||
out = open("slovene.pickle","wb")
|
||||
pickle.dump(tokenizer, out)
|
||||
out.close()
|
||||
|
||||
---------
|
File diff suppressed because it is too large
Load Diff
File diff suppressed because it is too large
Load Diff
File diff suppressed because it is too large
Load Diff
File diff suppressed because it is too large
Load Diff
File diff suppressed because it is too large
Load Diff
File diff suppressed because it is too large
Load Diff
File diff suppressed because it is too large
Load Diff
File diff suppressed because it is too large
Load Diff
File diff suppressed because it is too large
Load Diff
File diff suppressed because it is too large
Load Diff
File diff suppressed because it is too large
Load Diff
File diff suppressed because it is too large
Load Diff
File diff suppressed because it is too large
Load Diff
Binary file not shown.
File diff suppressed because it is too large
Load Diff
File diff suppressed because it is too large
Load Diff
File diff suppressed because it is too large
Load Diff
File diff suppressed because it is too large
Load Diff
Binary file not shown.
|
@ -0,0 +1,32 @@
|
|||
Stopwords Corpus
|
||||
|
||||
This corpus contains lists of stop words for several languages. These
|
||||
are high-frequency grammatical words which are usually ignored in text
|
||||
retrieval applications.
|
||||
|
||||
They were obtained from:
|
||||
http://anoncvs.postgresql.org/cvsweb.cgi/pgsql/src/backend/snowball/stopwords/
|
||||
|
||||
The stop words for the Romanian language were obtained from:
|
||||
http://arlc.ro/resources/
|
||||
|
||||
The English list has been augmented
|
||||
https://github.com/nltk/nltk_data/issues/22
|
||||
|
||||
The German list has been corrected
|
||||
https://github.com/nltk/nltk_data/pull/49
|
||||
|
||||
A Kazakh list has been added
|
||||
https://github.com/nltk/nltk_data/pull/52
|
||||
|
||||
A Nepali list has been added
|
||||
https://github.com/nltk/nltk_data/pull/83
|
||||
|
||||
An Azerbaijani list has been added
|
||||
https://github.com/nltk/nltk_data/pull/100
|
||||
|
||||
A Greek list has been added
|
||||
https://github.com/nltk/nltk_data/pull/103
|
||||
|
||||
An Indonesian list has been added
|
||||
https://github.com/nltk/nltk_data/pull/112
|
|
@ -0,0 +1,248 @@
|
|||
إذ
|
||||
إذا
|
||||
إذما
|
||||
إذن
|
||||
أف
|
||||
أقل
|
||||
أكثر
|
||||
ألا
|
||||
إلا
|
||||
التي
|
||||
الذي
|
||||
الذين
|
||||
اللاتي
|
||||
اللائي
|
||||
اللتان
|
||||
اللتيا
|
||||
اللتين
|
||||
اللذان
|
||||
اللذين
|
||||
اللواتي
|
||||
إلى
|
||||
إليك
|
||||
إليكم
|
||||
إليكما
|
||||
إليكن
|
||||
أم
|
||||
أما
|
||||
أما
|
||||
إما
|
||||
أن
|
||||
إن
|
||||
إنا
|
||||
أنا
|
||||
أنت
|
||||
أنتم
|
||||
أنتما
|
||||
أنتن
|
||||
إنما
|
||||
إنه
|
||||
أنى
|
||||
أنى
|
||||
آه
|
||||
آها
|
||||
أو
|
||||
أولاء
|
||||
أولئك
|
||||
أوه
|
||||
آي
|
||||
أي
|
||||
أيها
|
||||
إي
|
||||
أين
|
||||
أين
|
||||
أينما
|
||||
إيه
|
||||
بخ
|
||||
بس
|
||||
بعد
|
||||
بعض
|
||||
بك
|
||||
بكم
|
||||
بكم
|
||||
بكما
|
||||
بكن
|
||||
بل
|
||||
بلى
|
||||
بما
|
||||
بماذا
|
||||
بمن
|
||||
بنا
|
||||
به
|
||||
بها
|
||||
بهم
|
||||
بهما
|
||||
بهن
|
||||
بي
|
||||
بين
|
||||
بيد
|
||||
تلك
|
||||
تلكم
|
||||
تلكما
|
||||
ته
|
||||
تي
|
||||
تين
|
||||
تينك
|
||||
ثم
|
||||
ثمة
|
||||
حاشا
|
||||
حبذا
|
||||
حتى
|
||||
حيث
|
||||
حيثما
|
||||
حين
|
||||
خلا
|
||||
دون
|
||||
ذا
|
||||
ذات
|
||||
ذاك
|
||||
ذان
|
||||
ذانك
|
||||
ذلك
|
||||
ذلكم
|
||||
ذلكما
|
||||
ذلكن
|
||||
ذه
|
||||
ذو
|
||||
ذوا
|
||||
ذواتا
|
||||
ذواتي
|
||||
ذي
|
||||
ذين
|
||||
ذينك
|
||||
ريث
|
||||
سوف
|
||||
سوى
|
||||
شتان
|
||||
عدا
|
||||
عسى
|
||||
عل
|
||||
على
|
||||
عليك
|
||||
عليه
|
||||
عما
|
||||
عن
|
||||
عند
|
||||
غير
|
||||
فإذا
|
||||
فإن
|
||||
فلا
|
||||
فمن
|
||||
في
|
||||
فيم
|
||||
فيما
|
||||
فيه
|
||||
فيها
|
||||
قد
|
||||
كأن
|
||||
كأنما
|
||||
كأي
|
||||
كأين
|
||||
كذا
|
||||
كذلك
|
||||
كل
|
||||
كلا
|
||||
كلاهما
|
||||
كلتا
|
||||
كلما
|
||||
كليكما
|
||||
كليهما
|
||||
كم
|
||||
كم
|
||||
كما
|
||||
كي
|
||||
كيت
|
||||
كيف
|
||||
كيفما
|
||||
لا
|
||||
لاسيما
|
||||
لدى
|
||||
لست
|
||||
لستم
|
||||
لستما
|
||||
لستن
|
||||
لسن
|
||||
لسنا
|
||||
لعل
|
||||
لك
|
||||
لكم
|
||||
لكما
|
||||
لكن
|
||||
لكنما
|
||||
لكي
|
||||
لكيلا
|
||||
لم
|
||||
لما
|
||||
لن
|
||||
لنا
|
||||
له
|
||||
لها
|
||||
لهم
|
||||
لهما
|
||||
لهن
|
||||
لو
|
||||
لولا
|
||||
لوما
|
||||
لي
|
||||
لئن
|
||||
ليت
|
||||
ليس
|
||||
ليسا
|
||||
ليست
|
||||
ليستا
|
||||
ليسوا
|
||||
ما
|
||||
ماذا
|
||||
متى
|
||||
مذ
|
||||
مع
|
||||
مما
|
||||
ممن
|
||||
من
|
||||
منه
|
||||
منها
|
||||
منذ
|
||||
مه
|
||||
مهما
|
||||
نحن
|
||||
نحو
|
||||
نعم
|
||||
ها
|
||||
هاتان
|
||||
هاته
|
||||
هاتي
|
||||
هاتين
|
||||
هاك
|
||||
هاهنا
|
||||
هذا
|
||||
هذان
|
||||
هذه
|
||||
هذي
|
||||
هذين
|
||||
هكذا
|
||||
هل
|
||||
هلا
|
||||
هم
|
||||
هما
|
||||
هن
|
||||
هنا
|
||||
هناك
|
||||
هنالك
|
||||
هو
|
||||
هؤلاء
|
||||
هي
|
||||
هيا
|
||||
هيت
|
||||
هيهات
|
||||
والذي
|
||||
والذين
|
||||
وإذ
|
||||
وإذا
|
||||
وإن
|
||||
ولا
|
||||
ولكن
|
||||
ولو
|
||||
وما
|
||||
ومن
|
||||
وهو
|
||||
يا
|
|
@ -0,0 +1,165 @@
|
|||
a
|
||||
ad
|
||||
altı
|
||||
altmış
|
||||
amma
|
||||
arasında
|
||||
artıq
|
||||
ay
|
||||
az
|
||||
bax
|
||||
belə
|
||||
bəli
|
||||
bəlkə
|
||||
beş
|
||||
bəy
|
||||
bəzən
|
||||
bəzi
|
||||
bilər
|
||||
bir
|
||||
biraz
|
||||
biri
|
||||
birşey
|
||||
biz
|
||||
bizim
|
||||
bizlər
|
||||
bu
|
||||
buna
|
||||
bundan
|
||||
bunların
|
||||
bunu
|
||||
bunun
|
||||
buradan
|
||||
bütün
|
||||
ci
|
||||
cı
|
||||
çox
|
||||
cu
|
||||
cü
|
||||
çünki
|
||||
da
|
||||
daha
|
||||
də
|
||||
dedi
|
||||
dək
|
||||
dən
|
||||
dəqiqə
|
||||
deyil
|
||||
dir
|
||||
doqquz
|
||||
doqsan
|
||||
dörd
|
||||
düz
|
||||
ə
|
||||
edən
|
||||
edir
|
||||
əgər
|
||||
əlbəttə
|
||||
elə
|
||||
əlli
|
||||
ən
|
||||
əslində
|
||||
et
|
||||
etdi
|
||||
etmə
|
||||
etmək
|
||||
faiz
|
||||
gilə
|
||||
görə
|
||||
ha
|
||||
haqqında
|
||||
harada
|
||||
hə
|
||||
heç
|
||||
həm
|
||||
həmin
|
||||
həmişə
|
||||
hər
|
||||
ı
|
||||
idi
|
||||
iki
|
||||
il
|
||||
ildə
|
||||
ilə
|
||||
ilk
|
||||
in
|
||||
indi
|
||||
isə
|
||||
istifadə
|
||||
iyirmi
|
||||
ki
|
||||
kim
|
||||
kimə
|
||||
kimi
|
||||
lakin
|
||||
lap
|
||||
məhz
|
||||
mən
|
||||
mənə
|
||||
mirşey
|
||||
nə
|
||||
nəhayət
|
||||
niyə
|
||||
o
|
||||
obirisi
|
||||
of
|
||||
olan
|
||||
olar
|
||||
olaraq
|
||||
oldu
|
||||
olduğu
|
||||
olmadı
|
||||
olmaz
|
||||
olmuşdur
|
||||
olsun
|
||||
olur
|
||||
on
|
||||
ona
|
||||
ondan
|
||||
onlar
|
||||
onlardan
|
||||
onların
|
||||
onsuzda
|
||||
onu
|
||||
onun
|
||||
oradan
|
||||
otuz
|
||||
öz
|
||||
özü
|
||||
qarşı
|
||||
qədər
|
||||
qırx
|
||||
saat
|
||||
sadəcə
|
||||
saniyə
|
||||
səhv
|
||||
səkkiz
|
||||
səksən
|
||||
sən
|
||||
sənə
|
||||
sənin
|
||||
siz
|
||||
sizin
|
||||
sizlər
|
||||
sonra
|
||||
təəssüf
|
||||
ü
|
||||
üç
|
||||
üçün
|
||||
var
|
||||
və
|
||||
xan
|
||||
xanım
|
||||
xeyr
|
||||
ya
|
||||
yalnız
|
||||
yaxşı
|
||||
yeddi
|
||||
yenə
|
||||
yəni
|
||||
yetmiş
|
||||
yox
|
||||
yoxdur
|
||||
yoxsa
|
||||
yüz
|
||||
zaman
|
|
@ -0,0 +1,94 @@
|
|||
og
|
||||
i
|
||||
jeg
|
||||
det
|
||||
at
|
||||
en
|
||||
den
|
||||
til
|
||||
er
|
||||
som
|
||||
på
|
||||
de
|
||||
med
|
||||
han
|
||||
af
|
||||
for
|
||||
ikke
|
||||
der
|
||||
var
|
||||
mig
|
||||
sig
|
||||
men
|
||||
et
|
||||
har
|
||||
om
|
||||
vi
|
||||
min
|
||||
havde
|
||||
ham
|
||||
hun
|
||||
nu
|
||||
over
|
||||
da
|
||||
fra
|
||||
du
|
||||
ud
|
||||
sin
|
||||
dem
|
||||
os
|
||||
op
|
||||
man
|
||||
hans
|
||||
hvor
|
||||
eller
|
||||
hvad
|
||||
skal
|
||||
selv
|
||||
her
|
||||
alle
|
||||
vil
|
||||
blev
|
||||
kunne
|
||||
ind
|
||||
når
|
||||
være
|
||||
dog
|
||||
noget
|
||||
ville
|
||||
jo
|
||||
deres
|
||||
efter
|
||||
ned
|
||||
skulle
|
||||
denne
|
||||
end
|
||||
dette
|
||||
mit
|
||||
også
|
||||
under
|
||||
have
|
||||
dig
|
||||
anden
|
||||
hende
|
||||
mine
|
||||
alt
|
||||
meget
|
||||
sit
|
||||
sine
|
||||
vor
|
||||
mod
|
||||
disse
|
||||
hvis
|
||||
din
|
||||
nogle
|
||||
hos
|
||||
blive
|
||||
mange
|
||||
ad
|
||||
bliver
|
||||
hendes
|
||||
været
|
||||
thi
|
||||
jer
|
||||
sådan
|
|
@ -0,0 +1,101 @@
|
|||
de
|
||||
en
|
||||
van
|
||||
ik
|
||||
te
|
||||
dat
|
||||
die
|
||||
in
|
||||
een
|
||||
hij
|
||||
het
|
||||
niet
|
||||
zijn
|
||||
is
|
||||
was
|
||||
op
|
||||
aan
|
||||
met
|
||||
als
|
||||
voor
|
||||
had
|
||||
er
|
||||
maar
|
||||
om
|
||||
hem
|
||||
dan
|
||||
zou
|
||||
of
|
||||
wat
|
||||
mijn
|
||||
men
|
||||
dit
|
||||
zo
|
||||
door
|
||||
over
|
||||
ze
|
||||
zich
|
||||
bij
|
||||
ook
|
||||
tot
|
||||
je
|
||||
mij
|
||||
uit
|
||||
der
|
||||
daar
|
||||
haar
|
||||
naar
|
||||
heb
|
||||
hoe
|
||||
heeft
|
||||
hebben
|
||||
deze
|
||||
u
|
||||
want
|
||||
nog
|
||||
zal
|
||||
me
|
||||
zij
|
||||
nu
|
||||
ge
|
||||
geen
|
||||
omdat
|
||||
iets
|
||||
worden
|
||||
toch
|
||||
al
|
||||
waren
|
||||
veel
|
||||
meer
|
||||
doen
|
||||
toen
|
||||
moet
|
||||
ben
|
||||
zonder
|
||||
kan
|
||||
hun
|
||||
dus
|
||||
alles
|
||||
onder
|
||||
ja
|
||||
eens
|
||||
hier
|
||||
wie
|
||||
werd
|
||||
altijd
|
||||
doch
|
||||
wordt
|
||||
wezen
|
||||
kunnen
|
||||
ons
|
||||
zelf
|
||||
tegen
|
||||
na
|
||||
reeds
|
||||
wil
|
||||
kon
|
||||
niets
|
||||
uw
|
||||
iemand
|
||||
geweest
|
||||
andere
|
|
@ -0,0 +1,179 @@
|
|||
i
|
||||
me
|
||||
my
|
||||
myself
|
||||
we
|
||||
our
|
||||
ours
|
||||
ourselves
|
||||
you
|
||||
you're
|
||||
you've
|
||||
you'll
|
||||
you'd
|
||||
your
|
||||
yours
|
||||
yourself
|
||||
yourselves
|
||||
he
|
||||
him
|
||||
his
|
||||
himself
|
||||
she
|
||||
she's
|
||||
her
|
||||
hers
|
||||
herself
|
||||
it
|
||||
it's
|
||||
its
|
||||
itself
|
||||
they
|
||||
them
|
||||
their
|
||||
theirs
|
||||
themselves
|
||||
what
|
||||
which
|
||||
who
|
||||
whom
|
||||
this
|
||||
that
|
||||
that'll
|
||||
these
|
||||
those
|
||||
am
|
||||
is
|
||||
are
|
||||
was
|
||||
were
|
||||
be
|
||||
been
|
||||
being
|
||||
have
|
||||
has
|
||||
had
|
||||
having
|
||||
do
|
||||
does
|
||||
did
|
||||
doing
|
||||
a
|
||||
an
|
||||
the
|
||||
and
|
||||
but
|
||||
if
|
||||
or
|
||||
because
|
||||
as
|
||||
until
|
||||
while
|
||||
of
|
||||
at
|
||||
by
|
||||
for
|
||||
with
|
||||
about
|
||||
against
|
||||
between
|
||||
into
|
||||
through
|
||||
during
|
||||
before
|
||||
after
|
||||
above
|
||||
below
|
||||
to
|
||||
from
|
||||
up
|
||||
down
|
||||
in
|
||||
out
|
||||
on
|
||||
off
|
||||
over
|
||||
under
|
||||
again
|
||||
further
|
||||
then
|
||||
once
|
||||
here
|
||||
there
|
||||
when
|
||||
where
|
||||
why
|
||||
how
|
||||
all
|
||||
any
|
||||
both
|
||||
each
|
||||
few
|
||||
more
|
||||
most
|
||||
other
|
||||
some
|
||||
such
|
||||
no
|
||||
nor
|
||||
not
|
||||
only
|
||||
own
|
||||
same
|
||||
so
|
||||
than
|
||||
too
|
||||
very
|
||||
s
|
||||
t
|
||||
can
|
||||
will
|
||||
just
|
||||
don
|
||||
don't
|
||||
should
|
||||
should've
|
||||
now
|
||||
d
|
||||
ll
|
||||
m
|
||||
o
|
||||
re
|
||||
ve
|
||||
y
|
||||
ain
|
||||
aren
|
||||
aren't
|
||||
couldn
|
||||
couldn't
|
||||
didn
|
||||
didn't
|
||||
doesn
|
||||
doesn't
|
||||
hadn
|
||||
hadn't
|
||||
hasn
|
||||
hasn't
|
||||
haven
|
||||
haven't
|
||||
isn
|
||||
isn't
|
||||
ma
|
||||
mightn
|
||||
mightn't
|
||||
mustn
|
||||
mustn't
|
||||
needn
|
||||
needn't
|
||||
shan
|
||||
shan't
|
||||
shouldn
|
||||
shouldn't
|
||||
wasn
|
||||
wasn't
|
||||
weren
|
||||
weren't
|
||||
won
|
||||
won't
|
||||
wouldn
|
||||
wouldn't
|
|
@ -0,0 +1,235 @@
|
|||
olla
|
||||
olen
|
||||
olet
|
||||
on
|
||||
olemme
|
||||
olette
|
||||
ovat
|
||||
ole
|
||||
oli
|
||||
olisi
|
||||
olisit
|
||||
olisin
|
||||
olisimme
|
||||
olisitte
|
||||
olisivat
|
||||
olit
|
||||
olin
|
||||
olimme
|
||||
olitte
|
||||
olivat
|
||||
ollut
|
||||
olleet
|
||||
en
|
||||
et
|
||||
ei
|
||||
emme
|
||||
ette
|
||||
eivät
|
||||
minä
|
||||
minun
|
||||
minut
|
||||
minua
|
||||
minussa
|
||||
minusta
|
||||
minuun
|
||||
minulla
|
||||
minulta
|
||||
minulle
|
||||
sinä
|
||||
sinun
|
||||
sinut
|
||||
sinua
|
||||
sinussa
|
||||
sinusta
|
||||
sinuun
|
||||
sinulla
|
||||
sinulta
|
||||
sinulle
|
||||
hän
|
||||
hänen
|
||||
hänet
|
||||
häntä
|
||||
hänessä
|
||||
hänestä
|
||||
häneen
|
||||
hänellä
|
||||
häneltä
|
||||
hänelle
|
||||
me
|
||||
meidän
|
||||
meidät
|
||||
meitä
|
||||
meissä
|
||||
meistä
|
||||
meihin
|
||||
meillä
|
||||
meiltä
|
||||
meille
|
||||
te
|
||||
teidän
|
||||
teidät
|
||||
teitä
|
||||
teissä
|
||||
teistä
|
||||
teihin
|
||||
teillä
|
||||
teiltä
|
||||
teille
|
||||
he
|
||||
heidän
|
||||
heidät
|
||||
heitä
|
||||
heissä
|
||||
heistä
|
||||
heihin
|
||||
heillä
|
||||
heiltä
|
||||
heille
|
||||
tämä
|
||||
tämän
|
||||
tätä
|
||||
tässä
|
||||
tästä
|
||||
tähän
|
||||
tallä
|
||||
tältä
|
||||
tälle
|
||||
tänä
|
||||
täksi
|
||||
tuo
|
||||
tuon
|
||||
tuotä
|
||||
tuossa
|
||||
tuosta
|
||||
tuohon
|
||||
tuolla
|
||||
tuolta
|
||||
tuolle
|
||||
tuona
|
||||
tuoksi
|
||||
se
|
||||
sen
|
||||
sitä
|
||||
siinä
|
||||
siitä
|
||||
siihen
|
||||
sillä
|
||||
siltä
|
||||
sille
|
||||
sinä
|
||||
siksi
|
||||
nämä
|
||||
näiden
|
||||
näitä
|
||||
näissä
|
||||
näistä
|
||||
näihin
|
||||
näillä
|
||||
näiltä
|
||||
näille
|
||||
näinä
|
||||
näiksi
|
||||
nuo
|
||||
noiden
|
||||
noita
|
||||
noissa
|
||||
noista
|
||||
noihin
|
||||
noilla
|
||||
noilta
|
||||
noille
|
||||
noina
|
||||
noiksi
|
||||
ne
|
||||
niiden
|
||||
niitä
|
||||
niissä
|
||||
niistä
|
||||
niihin
|
||||
niillä
|
||||
niiltä
|
||||
niille
|
||||
niinä
|
||||
niiksi
|
||||
kuka
|
||||
kenen
|
||||
kenet
|
||||
ketä
|
||||
kenessä
|
||||
kenestä
|
||||
keneen
|
||||
kenellä
|
||||
keneltä
|
||||
kenelle
|
||||
kenenä
|
||||
keneksi
|
||||
ketkä
|
||||
keiden
|
||||
ketkä
|
||||
keitä
|
||||
keissä
|
||||
keistä
|
||||
keihin
|
||||
keillä
|
||||
keiltä
|
||||
keille
|
||||
keinä
|
||||
keiksi
|
||||
mikä
|
||||
minkä
|
||||
minkä
|
||||
mitä
|
||||
missä
|
||||
mistä
|
||||
mihin
|
||||
millä
|
||||
miltä
|
||||
mille
|
||||
minä
|
||||
miksi
|
||||
mitkä
|
||||
joka
|
||||
jonka
|
||||
jota
|
||||
jossa
|
||||
josta
|
||||
johon
|
||||
jolla
|
||||
jolta
|
||||
jolle
|
||||
jona
|
||||
joksi
|
||||
jotka
|
||||
joiden
|
||||
joita
|
||||
joissa
|
||||
joista
|
||||
joihin
|
||||
joilla
|
||||
joilta
|
||||
joille
|
||||
joina
|
||||
joiksi
|
||||
että
|
||||
ja
|
||||
jos
|
||||
koska
|
||||
kuin
|
||||
mutta
|
||||
niin
|
||||
sekä
|
||||
sillä
|
||||
tai
|
||||
vaan
|
||||
vai
|
||||
vaikka
|
||||
kanssa
|
||||
mukaan
|
||||
noin
|
||||
poikki
|
||||
yli
|
||||
kun
|
||||
niin
|
||||
nyt
|
||||
itse
|
|
@ -0,0 +1,157 @@
|
|||
au
|
||||
aux
|
||||
avec
|
||||
ce
|
||||
ces
|
||||
dans
|
||||
de
|
||||
des
|
||||
du
|
||||
elle
|
||||
en
|
||||
et
|
||||
eux
|
||||
il
|
||||
ils
|
||||
je
|
||||
la
|
||||
le
|
||||
les
|
||||
leur
|
||||
lui
|
||||
ma
|
||||
mais
|
||||
me
|
||||
même
|
||||
mes
|
||||
moi
|
||||
mon
|
||||
ne
|
||||
nos
|
||||
notre
|
||||
nous
|
||||
on
|
||||
ou
|
||||
par
|
||||
pas
|
||||
pour
|
||||
qu
|
||||
que
|
||||
qui
|
||||
sa
|
||||
se
|
||||
ses
|
||||
son
|
||||
sur
|
||||
ta
|
||||
te
|
||||
tes
|
||||
toi
|
||||
ton
|
||||
tu
|
||||
un
|
||||
une
|
||||
vos
|
||||
votre
|
||||
vous
|
||||
c
|
||||
d
|
||||
j
|
||||
l
|
||||
à
|
||||
m
|
||||
n
|
||||
s
|
||||
t
|
||||
y
|
||||
été
|
||||
étée
|
||||
étées
|
||||
étés
|
||||
étant
|
||||
étante
|
||||
étants
|
||||
étantes
|
||||
suis
|
||||
es
|
||||
est
|
||||
sommes
|
||||
êtes
|
||||
sont
|
||||
serai
|
||||
seras
|
||||
sera
|
||||
serons
|
||||
serez
|
||||
seront
|
||||
serais
|
||||
serait
|
||||
serions
|
||||
seriez
|
||||
seraient
|
||||
étais
|
||||
était
|
||||
étions
|
||||
étiez
|
||||
étaient
|
||||
fus
|
||||
fut
|
||||
fûmes
|
||||
fûtes
|
||||
furent
|
||||
sois
|
||||
soit
|
||||
soyons
|
||||
soyez
|
||||
soient
|
||||
fusse
|
||||
fusses
|
||||
fût
|
||||
fussions
|
||||
fussiez
|
||||
fussent
|
||||
ayant
|
||||
ayante
|
||||
ayantes
|
||||
ayants
|
||||
eu
|
||||
eue
|
||||
eues
|
||||
eus
|
||||
ai
|
||||
as
|
||||
avons
|
||||
avez
|
||||
ont
|
||||
aurai
|
||||
auras
|
||||
aura
|
||||
aurons
|
||||
aurez
|
||||
auront
|
||||
aurais
|
||||
aurait
|
||||
aurions
|
||||
auriez
|
||||
auraient
|
||||
avais
|
||||
avait
|
||||
avions
|
||||
aviez
|
||||
avaient
|
||||
eut
|
||||
eûmes
|
||||
eûtes
|
||||
eurent
|
||||
aie
|
||||
aies
|
||||
ait
|
||||
ayons
|
||||
ayez
|
||||
aient
|
||||
eusse
|
||||
eusses
|
||||
eût
|
||||
eussions
|
||||
eussiez
|
||||
eussent
|
|
@ -0,0 +1,232 @@
|
|||
aber
|
||||
alle
|
||||
allem
|
||||
allen
|
||||
aller
|
||||
alles
|
||||
als
|
||||
also
|
||||
am
|
||||
an
|
||||
ander
|
||||
andere
|
||||
anderem
|
||||
anderen
|
||||
anderer
|
||||
anderes
|
||||
anderm
|
||||
andern
|
||||
anderr
|
||||
anders
|
||||
auch
|
||||
auf
|
||||
aus
|
||||
bei
|
||||
bin
|
||||
bis
|
||||
bist
|
||||
da
|
||||
damit
|
||||
dann
|
||||
der
|
||||
den
|
||||
des
|
||||
dem
|
||||
die
|
||||
das
|
||||
dass
|
||||
daß
|
||||
derselbe
|
||||
derselben
|
||||
denselben
|
||||
desselben
|
||||
demselben
|
||||
dieselbe
|
||||
dieselben
|
||||
dasselbe
|
||||
dazu
|
||||
dein
|
||||
deine
|
||||
deinem
|
||||
deinen
|
||||
deiner
|
||||
deines
|
||||
denn
|
||||
derer
|
||||
dessen
|
||||
dich
|
||||
dir
|
||||
du
|
||||
dies
|
||||
diese
|
||||
diesem
|
||||
diesen
|
||||
dieser
|
||||
dieses
|
||||
doch
|
||||
dort
|
||||
durch
|
||||
ein
|
||||
eine
|
||||
einem
|
||||
einen
|
||||
einer
|
||||
eines
|
||||
einig
|
||||
einige
|
||||
einigem
|
||||
einigen
|
||||
einiger
|
||||
einiges
|
||||
einmal
|
||||
er
|
||||
ihn
|
||||
ihm
|
||||
es
|
||||
etwas
|
||||
euer
|
||||
eure
|
||||
eurem
|
||||
euren
|
||||
eurer
|
||||
eures
|
||||
für
|
||||
gegen
|
||||
gewesen
|
||||
hab
|
||||
habe
|
||||
haben
|
||||
hat
|
||||
hatte
|
||||
hatten
|
||||
hier
|
||||
hin
|
||||
hinter
|
||||
ich
|
||||
mich
|
||||
mir
|
||||
ihr
|
||||
ihre
|
||||
ihrem
|
||||
ihren
|
||||
ihrer
|
||||
ihres
|
||||
euch
|
||||
im
|
||||
in
|
||||
indem
|
||||
ins
|
||||
ist
|
||||
jede
|
||||
jedem
|
||||
jeden
|
||||
jeder
|
||||
jedes
|
||||
jene
|
||||
jenem
|
||||
jenen
|
||||
jener
|
||||
jenes
|
||||
jetzt
|
||||
kann
|
||||
kein
|
||||
keine
|
||||
keinem
|
||||
keinen
|
||||
keiner
|
||||
keines
|
||||
können
|
||||
könnte
|
||||
machen
|
||||
man
|
||||
manche
|
||||
manchem
|
||||
manchen
|
||||
mancher
|
||||
manches
|
||||
mein
|
||||
meine
|
||||
meinem
|
||||
meinen
|
||||
meiner
|
||||
meines
|
||||
mit
|
||||
muss
|
||||
musste
|
||||
nach
|
||||
nicht
|
||||
nichts
|
||||
noch
|
||||
nun
|
||||
nur
|
||||
ob
|
||||
oder
|
||||
ohne
|
||||
sehr
|
||||
sein
|
||||
seine
|
||||
seinem
|
||||
seinen
|
||||
seiner
|
||||
seines
|
||||
selbst
|
||||
sich
|
||||
sie
|
||||
ihnen
|
||||
sind
|
||||
so
|
||||
solche
|
||||
solchem
|
||||
solchen
|
||||
solcher
|
||||
solches
|
||||
soll
|
||||
sollte
|
||||
sondern
|
||||
sonst
|
||||
über
|
||||
um
|
||||
und
|
||||
uns
|
||||
unsere
|
||||
unserem
|
||||
unseren
|
||||
unser
|
||||
unseres
|
||||
unter
|
||||
viel
|
||||
vom
|
||||
von
|
||||
vor
|
||||
während
|
||||
war
|
||||
waren
|
||||
warst
|
||||
was
|
||||
weg
|
||||
weil
|
||||
weiter
|
||||
welche
|
||||
welchem
|
||||
welchen
|
||||
welcher
|
||||
welches
|
||||
wenn
|
||||
werde
|
||||
werden
|
||||
wie
|
||||
wieder
|
||||
will
|
||||
wir
|
||||
wird
|
||||
wirst
|
||||
wo
|
||||
wollen
|
||||
wollte
|
||||
würde
|
||||
würden
|
||||
zu
|
||||
zum
|
||||
zur
|
||||
zwar
|
||||
zwischen
|
|
@ -0,0 +1,265 @@
|
|||
αλλα
|
||||
αν
|
||||
αντι
|
||||
απο
|
||||
αυτα
|
||||
αυτεσ
|
||||
αυτη
|
||||
αυτο
|
||||
αυτοι
|
||||
αυτοσ
|
||||
αυτουσ
|
||||
αυτων
|
||||
αἱ
|
||||
αἳ
|
||||
αἵ
|
||||
αὐτόσ
|
||||
αὐτὸς
|
||||
αὖ
|
||||
γάρ
|
||||
γα
|
||||
γα^
|
||||
γε
|
||||
για
|
||||
γοῦν
|
||||
γὰρ
|
||||
δ'
|
||||
δέ
|
||||
δή
|
||||
δαί
|
||||
δαίσ
|
||||
δαὶ
|
||||
δαὶς
|
||||
δε
|
||||
δεν
|
||||
δι'
|
||||
διά
|
||||
διὰ
|
||||
δὲ
|
||||
δὴ
|
||||
δ’
|
||||
εαν
|
||||
ειμαι
|
||||
ειμαστε
|
||||
ειναι
|
||||
εισαι
|
||||
ειστε
|
||||
εκεινα
|
||||
εκεινεσ
|
||||
εκεινη
|
||||
εκεινο
|
||||
εκεινοι
|
||||
εκεινοσ
|
||||
εκεινουσ
|
||||
εκεινων
|
||||
ενω
|
||||
επ
|
||||
επι
|
||||
εἰ
|
||||
εἰμί
|
||||
εἰμὶ
|
||||
εἰς
|
||||
εἰσ
|
||||
εἴ
|
||||
εἴμι
|
||||
εἴτε
|
||||
η
|
||||
θα
|
||||
ισωσ
|
||||
κ
|
||||
καί
|
||||
καίτοι
|
||||
καθ
|
||||
και
|
||||
κατ
|
||||
κατά
|
||||
κατα
|
||||
κατὰ
|
||||
καὶ
|
||||
κι
|
||||
κἀν
|
||||
κἂν
|
||||
μέν
|
||||
μή
|
||||
μήτε
|
||||
μα
|
||||
με
|
||||
μεθ
|
||||
μετ
|
||||
μετά
|
||||
μετα
|
||||
μετὰ
|
||||
μη
|
||||
μην
|
||||
μἐν
|
||||
μὲν
|
||||
μὴ
|
||||
μὴν
|
||||
να
|
||||
ο
|
||||
οι
|
||||
ομωσ
|
||||
οπωσ
|
||||
οσο
|
||||
οτι
|
||||
οἱ
|
||||
οἳ
|
||||
οἷς
|
||||
οὐ
|
||||
οὐδ
|
||||
οὐδέ
|
||||
οὐδείσ
|
||||
οὐδεὶς
|
||||
οὐδὲ
|
||||
οὐδὲν
|
||||
οὐκ
|
||||
οὐχ
|
||||
οὐχὶ
|
||||
οὓς
|
||||
οὔτε
|
||||
οὕτω
|
||||
οὕτως
|
||||
οὕτωσ
|
||||
οὖν
|
||||
οὗ
|
||||
οὗτος
|
||||
οὗτοσ
|
||||
παρ
|
||||
παρά
|
||||
παρα
|
||||
παρὰ
|
||||
περί
|
||||
περὶ
|
||||
ποια
|
||||
ποιεσ
|
||||
ποιο
|
||||
ποιοι
|
||||
ποιοσ
|
||||
ποιουσ
|
||||
ποιων
|
||||
ποτε
|
||||
που
|
||||
ποῦ
|
||||
προ
|
||||
προσ
|
||||
πρόσ
|
||||
πρὸ
|
||||
πρὸς
|
||||
πως
|
||||
πωσ
|
||||
σε
|
||||
στη
|
||||
στην
|
||||
στο
|
||||
στον
|
||||
σόσ
|
||||
σύ
|
||||
σύν
|
||||
σὸς
|
||||
σὺ
|
||||
σὺν
|
||||
τά
|
||||
τήν
|
||||
τί
|
||||
τίς
|
||||
τίσ
|
||||
τα
|
||||
ταῖς
|
||||
τε
|
||||
την
|
||||
τησ
|
||||
τι
|
||||
τινα
|
||||
τις
|
||||
τισ
|
||||
το
|
||||
τοί
|
||||
τοι
|
||||
τοιοῦτος
|
||||
τοιοῦτοσ
|
||||
τον
|
||||
τοτε
|
||||
του
|
||||
τούσ
|
||||
τοὺς
|
||||
τοῖς
|
||||
τοῦ
|
||||
των
|
||||
τό
|
||||
τόν
|
||||
τότε
|
||||
τὰ
|
||||
τὰς
|
||||
τὴν
|
||||
τὸ
|
||||
τὸν
|
||||
τῆς
|
||||
τῆσ
|
||||
τῇ
|
||||
τῶν
|
||||
τῷ
|
||||
ωσ
|
||||
ἀλλ'
|
||||
ἀλλά
|
||||
ἀλλὰ
|
||||
ἀλλ’
|
||||
ἀπ
|
||||
ἀπό
|
||||
ἀπὸ
|
||||
ἀφ
|
||||
ἂν
|
||||
ἃ
|
||||
ἄλλος
|
||||
ἄλλοσ
|
||||
ἄν
|
||||
ἄρα
|
||||
ἅμα
|
||||
ἐάν
|
||||
ἐγώ
|
||||
ἐγὼ
|
||||
ἐκ
|
||||
ἐμόσ
|
||||
ἐμὸς
|
||||
ἐν
|
||||
ἐξ
|
||||
ἐπί
|
||||
ἐπεὶ
|
||||
ἐπὶ
|
||||
ἐστι
|
||||
ἐφ
|
||||
ἐὰν
|
||||
ἑαυτοῦ
|
||||
ἔτι
|
||||
ἡ
|
||||
ἢ
|
||||
ἣ
|
||||
ἤ
|
||||
ἥ
|
||||
ἧς
|
||||
ἵνα
|
||||
ὁ
|
||||
ὃ
|
||||
ὃν
|
||||
ὃς
|
||||
ὅ
|
||||
ὅδε
|
||||
ὅθεν
|
||||
ὅπερ
|
||||
ὅς
|
||||
ὅσ
|
||||
ὅστις
|
||||
ὅστισ
|
||||
ὅτε
|
||||
ὅτι
|
||||
ὑμόσ
|
||||
ὑπ
|
||||
ὑπέρ
|
||||
ὑπό
|
||||
ὑπὲρ
|
||||
ὑπὸ
|
||||
ὡς
|
||||
ὡσ
|
||||
ὥς
|
||||
ὥστε
|
||||
ὦ
|
||||
ᾧ
|
|
@ -0,0 +1,199 @@
|
|||
a
|
||||
ahogy
|
||||
ahol
|
||||
aki
|
||||
akik
|
||||
akkor
|
||||
alatt
|
||||
által
|
||||
általában
|
||||
amely
|
||||
amelyek
|
||||
amelyekben
|
||||
amelyeket
|
||||
amelyet
|
||||
amelynek
|
||||
ami
|
||||
amit
|
||||
amolyan
|
||||
amíg
|
||||
amikor
|
||||
át
|
||||
abban
|
||||
ahhoz
|
||||
annak
|
||||
arra
|
||||
arról
|
||||
az
|
||||
azok
|
||||
azon
|
||||
azt
|
||||
azzal
|
||||
azért
|
||||
aztán
|
||||
azután
|
||||
azonban
|
||||
bár
|
||||
be
|
||||
belül
|
||||
benne
|
||||
cikk
|
||||
cikkek
|
||||
cikkeket
|
||||
csak
|
||||
de
|
||||
e
|
||||
eddig
|
||||
egész
|
||||
egy
|
||||
egyes
|
||||
egyetlen
|
||||
egyéb
|
||||
egyik
|
||||
egyre
|
||||
ekkor
|
||||
el
|
||||
elég
|
||||
ellen
|
||||
elõ
|
||||
elõször
|
||||
elõtt
|
||||
elsõ
|
||||
én
|
||||
éppen
|
||||
ebben
|
||||
ehhez
|
||||
emilyen
|
||||
ennek
|
||||
erre
|
||||
ez
|
||||
ezt
|
||||
ezek
|
||||
ezen
|
||||
ezzel
|
||||
ezért
|
||||
és
|
||||
fel
|
||||
felé
|
||||
hanem
|
||||
hiszen
|
||||
hogy
|
||||
hogyan
|
||||
igen
|
||||
így
|
||||
illetve
|
||||
ill.
|
||||
ill
|
||||
ilyen
|
||||
ilyenkor
|
||||
ison
|
||||
ismét
|
||||
itt
|
||||
jó
|
||||
jól
|
||||
jobban
|
||||
kell
|
||||
kellett
|
||||
keresztül
|
||||
keressünk
|
||||
ki
|
||||
kívül
|
||||
között
|
||||
közül
|
||||
legalább
|
||||
lehet
|
||||
lehetett
|
||||
legyen
|
||||
lenne
|
||||
lenni
|
||||
lesz
|
||||
lett
|
||||
maga
|
||||
magát
|
||||
majd
|
||||
majd
|
||||
már
|
||||
más
|
||||
másik
|
||||
meg
|
||||
még
|
||||
mellett
|
||||
mert
|
||||
mely
|
||||
melyek
|
||||
mi
|
||||
mit
|
||||
míg
|
||||
miért
|
||||
milyen
|
||||
mikor
|
||||
minden
|
||||
mindent
|
||||
mindenki
|
||||
mindig
|
||||
mint
|
||||
mintha
|
||||
mivel
|
||||
most
|
||||
nagy
|
||||
nagyobb
|
||||
nagyon
|
||||
ne
|
||||
néha
|
||||
nekem
|
||||
neki
|
||||
nem
|
||||
néhány
|
||||
nélkül
|
||||
nincs
|
||||
olyan
|
||||
ott
|
||||
össze
|
||||
õ
|
||||
õk
|
||||
õket
|
||||
pedig
|
||||
persze
|
||||
rá
|
||||
s
|
||||
saját
|
||||
sem
|
||||
semmi
|
||||
sok
|
||||
sokat
|
||||
sokkal
|
||||
számára
|
||||
szemben
|
||||
szerint
|
||||
szinte
|
||||
talán
|
||||
tehát
|
||||
teljes
|
||||
tovább
|
||||
továbbá
|
||||
több
|
||||
úgy
|
||||
ugyanis
|
||||
új
|
||||
újabb
|
||||
újra
|
||||
után
|
||||
utána
|
||||
utolsó
|
||||
vagy
|
||||
vagyis
|
||||
valaki
|
||||
valami
|
||||
valamint
|
||||
való
|
||||
vagyok
|
||||
van
|
||||
vannak
|
||||
volt
|
||||
voltam
|
||||
voltak
|
||||
voltunk
|
||||
vissza
|
||||
vele
|
||||
viszont
|
||||
volna
|
|
@ -0,0 +1,758 @@
|
|||
ada
|
||||
adalah
|
||||
adanya
|
||||
adapun
|
||||
agak
|
||||
agaknya
|
||||
agar
|
||||
akan
|
||||
akankah
|
||||
akhir
|
||||
akhiri
|
||||
akhirnya
|
||||
aku
|
||||
akulah
|
||||
amat
|
||||
amatlah
|
||||
anda
|
||||
andalah
|
||||
antar
|
||||
antara
|
||||
antaranya
|
||||
apa
|
||||
apaan
|
||||
apabila
|
||||
apakah
|
||||
apalagi
|
||||
apatah
|
||||
artinya
|
||||
asal
|
||||
asalkan
|
||||
atas
|
||||
atau
|
||||
ataukah
|
||||
ataupun
|
||||
awal
|
||||
awalnya
|
||||
bagai
|
||||
bagaikan
|
||||
bagaimana
|
||||
bagaimanakah
|
||||
bagaimanapun
|
||||
bagi
|
||||
bagian
|
||||
bahkan
|
||||
bahwa
|
||||
bahwasanya
|
||||
baik
|
||||
bakal
|
||||
bakalan
|
||||
balik
|
||||
banyak
|
||||
bapak
|
||||
baru
|
||||
bawah
|
||||
beberapa
|
||||
begini
|
||||
beginian
|
||||
beginikah
|
||||
beginilah
|
||||
begitu
|
||||
begitukah
|
||||
begitulah
|
||||
begitupun
|
||||
bekerja
|
||||
belakang
|
||||
belakangan
|
||||
belum
|
||||
belumlah
|
||||
benar
|
||||
benarkah
|
||||
benarlah
|
||||
berada
|
||||
berakhir
|
||||
berakhirlah
|
||||
berakhirnya
|
||||
berapa
|
||||
berapakah
|
||||
berapalah
|
||||
berapapun
|
||||
berarti
|
||||
berawal
|
||||
berbagai
|
||||
berdatangan
|
||||
beri
|
||||
berikan
|
||||
berikut
|
||||
berikutnya
|
||||
berjumlah
|
||||
berkali-kali
|
||||
berkata
|
||||
berkehendak
|
||||
berkeinginan
|
||||
berkenaan
|
||||
berlainan
|
||||
berlalu
|
||||
berlangsung
|
||||
berlebihan
|
||||
bermacam
|
||||
bermacam-macam
|
||||
bermaksud
|
||||
bermula
|
||||
bersama
|
||||
bersama-sama
|
||||
bersiap
|
||||
bersiap-siap
|
||||
bertanya
|
||||
bertanya-tanya
|
||||
berturut
|
||||
berturut-turut
|
||||
bertutur
|
||||
berujar
|
||||
berupa
|
||||
besar
|
||||
betul
|
||||
betulkah
|
||||
biasa
|
||||
biasanya
|
||||
bila
|
||||
bilakah
|
||||
bisa
|
||||
bisakah
|
||||
boleh
|
||||
bolehkah
|
||||
bolehlah
|
||||
buat
|
||||
bukan
|
||||
bukankah
|
||||
bukanlah
|
||||
bukannya
|
||||
bulan
|
||||
bung
|
||||
cara
|
||||
caranya
|
||||
cukup
|
||||
cukupkah
|
||||
cukuplah
|
||||
cuma
|
||||
dahulu
|
||||
dalam
|
||||
dan
|
||||
dapat
|
||||
dari
|
||||
daripada
|
||||
datang
|
||||
dekat
|
||||
demi
|
||||
demikian
|
||||
demikianlah
|
||||
dengan
|
||||
depan
|
||||
di
|
||||
dia
|
||||
diakhiri
|
||||
diakhirinya
|
||||
dialah
|
||||
diantara
|
||||
diantaranya
|
||||
diberi
|
||||
diberikan
|
||||
diberikannya
|
||||
dibuat
|
||||
dibuatnya
|
||||
didapat
|
||||
didatangkan
|
||||
digunakan
|
||||
diibaratkan
|
||||
diibaratkannya
|
||||
diingat
|
||||
diingatkan
|
||||
diinginkan
|
||||
dijawab
|
||||
dijelaskan
|
||||
dijelaskannya
|
||||
dikarenakan
|
||||
dikatakan
|
||||
dikatakannya
|
||||
dikerjakan
|
||||
diketahui
|
||||
diketahuinya
|
||||
dikira
|
||||
dilakukan
|
||||
dilalui
|
||||
dilihat
|
||||
dimaksud
|
||||
dimaksudkan
|
||||
dimaksudkannya
|
||||
dimaksudnya
|
||||
diminta
|
||||
dimintai
|
||||
dimisalkan
|
||||
dimulai
|
||||
dimulailah
|
||||
dimulainya
|
||||
dimungkinkan
|
||||
dini
|
||||
dipastikan
|
||||
diperbuat
|
||||
diperbuatnya
|
||||
dipergunakan
|
||||
diperkirakan
|
||||
diperlihatkan
|
||||
diperlukan
|
||||
diperlukannya
|
||||
dipersoalkan
|
||||
dipertanyakan
|
||||
dipunyai
|
||||
diri
|
||||
dirinya
|
||||
disampaikan
|
||||
disebut
|
||||
disebutkan
|
||||
disebutkannya
|
||||
disini
|
||||
disinilah
|
||||
ditambahkan
|
||||
ditandaskan
|
||||
ditanya
|
||||
ditanyai
|
||||
ditanyakan
|
||||
ditegaskan
|
||||
ditujukan
|
||||
ditunjuk
|
||||
ditunjuki
|
||||
ditunjukkan
|
||||
ditunjukkannya
|
||||
ditunjuknya
|
||||
dituturkan
|
||||
dituturkannya
|
||||
diucapkan
|
||||
diucapkannya
|
||||
diungkapkan
|
||||
dong
|
||||
dua
|
||||
dulu
|
||||
empat
|
||||
enggak
|
||||
enggaknya
|
||||
entah
|
||||
entahlah
|
||||
guna
|
||||
gunakan
|
||||
hal
|
||||
hampir
|
||||
hanya
|
||||
hanyalah
|
||||
hari
|
||||
harus
|
||||
haruslah
|
||||
harusnya
|
||||
hendak
|
||||
hendaklah
|
||||
hendaknya
|
||||
hingga
|
||||
ia
|
||||
ialah
|
||||
ibarat
|
||||
ibaratkan
|
||||
ibaratnya
|
||||
ibu
|
||||
ikut
|
||||
ingat
|
||||
ingat-ingat
|
||||
ingin
|
||||
inginkah
|
||||
inginkan
|
||||
ini
|
||||
inikah
|
||||
inilah
|
||||
itu
|
||||
itukah
|
||||
itulah
|
||||
jadi
|
||||
jadilah
|
||||
jadinya
|
||||
jangan
|
||||
jangankan
|
||||
janganlah
|
||||
jauh
|
||||
jawab
|
||||
jawaban
|
||||
jawabnya
|
||||
jelas
|
||||
jelaskan
|
||||
jelaslah
|
||||
jelasnya
|
||||
jika
|
||||
jikalau
|
||||
juga
|
||||
jumlah
|
||||
jumlahnya
|
||||
justru
|
||||
kala
|
||||
kalau
|
||||
kalaulah
|
||||
kalaupun
|
||||
kalian
|
||||
kami
|
||||
kamilah
|
||||
kamu
|
||||
kamulah
|
||||
kan
|
||||
kapan
|
||||
kapankah
|
||||
kapanpun
|
||||
karena
|
||||
karenanya
|
||||
kasus
|
||||
kata
|
||||
katakan
|
||||
katakanlah
|
||||
katanya
|
||||
ke
|
||||
keadaan
|
||||
kebetulan
|
||||
kecil
|
||||
kedua
|
||||
keduanya
|
||||
keinginan
|
||||
kelamaan
|
||||
kelihatan
|
||||
kelihatannya
|
||||
kelima
|
||||
keluar
|
||||
kembali
|
||||
kemudian
|
||||
kemungkinan
|
||||
kemungkinannya
|
||||
kenapa
|
||||
kepada
|
||||
kepadanya
|
||||
kesampaian
|
||||
keseluruhan
|
||||
keseluruhannya
|
||||
keterlaluan
|
||||
ketika
|
||||
khususnya
|
||||
kini
|
||||
kinilah
|
||||
kira
|
||||
kira-kira
|
||||
kiranya
|
||||
kita
|
||||
kitalah
|
||||
kok
|
||||
kurang
|
||||
lagi
|
||||
lagian
|
||||
lah
|
||||
lain
|
||||
lainnya
|
||||
lalu
|
||||
lama
|
||||
lamanya
|
||||
lanjut
|
||||
lanjutnya
|
||||
lebih
|
||||
lewat
|
||||
lima
|
||||
luar
|
||||
macam
|
||||
maka
|
||||
makanya
|
||||
makin
|
||||
malah
|
||||
malahan
|
||||
mampu
|
||||
mampukah
|
||||
mana
|
||||
manakala
|
||||
manalagi
|
||||
masa
|
||||
masalah
|
||||
masalahnya
|
||||
masih
|
||||
masihkah
|
||||
masing
|
||||
masing-masing
|
||||
mau
|
||||
maupun
|
||||
melainkan
|
||||
melakukan
|
||||
melalui
|
||||
melihat
|
||||
melihatnya
|
||||
memang
|
||||
memastikan
|
||||
memberi
|
||||
memberikan
|
||||
membuat
|
||||
memerlukan
|
||||
memihak
|
||||
meminta
|
||||
memintakan
|
||||
memisalkan
|
||||
memperbuat
|
||||
mempergunakan
|
||||
memperkirakan
|
||||
memperlihatkan
|
||||
mempersiapkan
|
||||
mempersoalkan
|
||||
mempertanyakan
|
||||
mempunyai
|
||||
memulai
|
||||
memungkinkan
|
||||
menaiki
|
||||
menambahkan
|
||||
menandaskan
|
||||
menanti
|
||||
menanti-nanti
|
||||
menantikan
|
||||
menanya
|
||||
menanyai
|
||||
menanyakan
|
||||
mendapat
|
||||
mendapatkan
|
||||
mendatang
|
||||
mendatangi
|
||||
mendatangkan
|
||||
menegaskan
|
||||
mengakhiri
|
||||
mengapa
|
||||
mengatakan
|
||||
mengatakannya
|
||||
mengenai
|
||||
mengerjakan
|
||||
mengetahui
|
||||
menggunakan
|
||||
menghendaki
|
||||
mengibaratkan
|
||||
mengibaratkannya
|
||||
mengingat
|
||||
mengingatkan
|
||||
menginginkan
|
||||
mengira
|
||||
mengucapkan
|
||||
mengucapkannya
|
||||
mengungkapkan
|
||||
menjadi
|
||||
menjawab
|
||||
menjelaskan
|
||||
menuju
|
||||
menunjuk
|
||||
menunjuki
|
||||
menunjukkan
|
||||
menunjuknya
|
||||
menurut
|
||||
menuturkan
|
||||
menyampaikan
|
||||
menyangkut
|
||||
menyatakan
|
||||
menyebutkan
|
||||
menyeluruh
|
||||
menyiapkan
|
||||
merasa
|
||||
mereka
|
||||
merekalah
|
||||
merupakan
|
||||
meski
|
||||
meskipun
|
||||
meyakini
|
||||
meyakinkan
|
||||
minta
|
||||
mirip
|
||||
misal
|
||||
misalkan
|
||||
misalnya
|
||||
mula
|
||||
mulai
|
||||
mulailah
|
||||
mulanya
|
||||
mungkin
|
||||
mungkinkah
|
||||
nah
|
||||
naik
|
||||
namun
|
||||
nanti
|
||||
nantinya
|
||||
nyaris
|
||||
nyatanya
|
||||
oleh
|
||||
olehnya
|
||||
pada
|
||||
padahal
|
||||
padanya
|
||||
pak
|
||||
paling
|
||||
panjang
|
||||
pantas
|
||||
para
|
||||
pasti
|
||||
pastilah
|
||||
penting
|
||||
pentingnya
|
||||
per
|
||||
percuma
|
||||
perlu
|
||||
perlukah
|
||||
perlunya
|
||||
pernah
|
||||
persoalan
|
||||
pertama
|
||||
pertama-tama
|
||||
pertanyaan
|
||||
pertanyakan
|
||||
pihak
|
||||
pihaknya
|
||||
pukul
|
||||
pula
|
||||
pun
|
||||
punya
|
||||
rasa
|
||||
rasanya
|
||||
rata
|
||||
rupanya
|
||||
saat
|
||||
saatnya
|
||||
saja
|
||||
sajalah
|
||||
saling
|
||||
sama
|
||||
sama-sama
|
||||
sambil
|
||||
sampai
|
||||
sampai-sampai
|
||||
sampaikan
|
||||
sana
|
||||
sangat
|
||||
sangatlah
|
||||
satu
|
||||
saya
|
||||
sayalah
|
||||
se
|
||||
sebab
|
||||
sebabnya
|
||||
sebagai
|
||||
sebagaimana
|
||||
sebagainya
|
||||
sebagian
|
||||
sebaik
|
||||
sebaik-baiknya
|
||||
sebaiknya
|
||||
sebaliknya
|
||||
sebanyak
|
||||
sebegini
|
||||
sebegitu
|
||||
sebelum
|
||||
sebelumnya
|
||||
sebenarnya
|
||||
seberapa
|
||||
sebesar
|
||||
sebetulnya
|
||||
sebisanya
|
||||
sebuah
|
||||
sebut
|
||||
sebutlah
|
||||
sebutnya
|
||||
secara
|
||||
secukupnya
|
||||
sedang
|
||||
sedangkan
|
||||
sedemikian
|
||||
sedikit
|
||||
sedikitnya
|
||||
seenaknya
|
||||
segala
|
||||
segalanya
|
||||
segera
|
||||
seharusnya
|
||||
sehingga
|
||||
seingat
|
||||
sejak
|
||||
sejauh
|
||||
sejenak
|
||||
sejumlah
|
||||
sekadar
|
||||
sekadarnya
|
||||
sekali
|
||||
sekali-kali
|
||||
sekalian
|
||||
sekaligus
|
||||
sekalipun
|
||||
sekarang
|
||||
sekarang
|
||||
sekecil
|
||||
seketika
|
||||
sekiranya
|
||||
sekitar
|
||||
sekitarnya
|
||||
sekurang-kurangnya
|
||||
sekurangnya
|
||||
sela
|
||||
selain
|
||||
selaku
|
||||
selalu
|
||||
selama
|
||||
selama-lamanya
|
||||
selamanya
|
||||
selanjutnya
|
||||
seluruh
|
||||
seluruhnya
|
||||
semacam
|
||||
semakin
|
||||
semampu
|
||||
semampunya
|
||||
semasa
|
||||
semasih
|
||||
semata
|
||||
semata-mata
|
||||
semaunya
|
||||
sementara
|
||||
semisal
|
||||
semisalnya
|
||||
sempat
|
||||
semua
|
||||
semuanya
|
||||
semula
|
||||
sendiri
|
||||
sendirian
|
||||
sendirinya
|
||||
seolah
|
||||
seolah-olah
|
||||
seorang
|
||||
sepanjang
|
||||
sepantasnya
|
||||
sepantasnyalah
|
||||
seperlunya
|
||||
seperti
|
||||
sepertinya
|
||||
sepihak
|
||||
sering
|
||||
seringnya
|
||||
serta
|
||||
serupa
|
||||
sesaat
|
||||
sesama
|
||||
sesampai
|
||||
sesegera
|
||||
sesekali
|
||||
seseorang
|
||||
sesuatu
|
||||
sesuatunya
|
||||
sesudah
|
||||
sesudahnya
|
||||
setelah
|
||||
setempat
|
||||
setengah
|
||||
seterusnya
|
||||
setiap
|
||||
setiba
|
||||
setibanya
|
||||
setidak-tidaknya
|
||||
setidaknya
|
||||
setinggi
|
||||
seusai
|
||||
sewaktu
|
||||
siap
|
||||
siapa
|
||||
siapakah
|
||||
siapapun
|
||||
sini
|
||||
sinilah
|
||||
soal
|
||||
soalnya
|
||||
suatu
|
||||
sudah
|
||||
sudahkah
|
||||
sudahlah
|
||||
supaya
|
||||
tadi
|
||||
tadinya
|
||||
tahu
|
||||
tahun
|
||||
tak
|
||||
tambah
|
||||
tambahnya
|
||||
tampak
|
||||
tampaknya
|
||||
tandas
|
||||
tandasnya
|
||||
tanpa
|
||||
tanya
|
||||
tanyakan
|
||||
tanyanya
|
||||
tapi
|
||||
tegas
|
||||
tegasnya
|
||||
telah
|
||||
tempat
|
||||
tengah
|
||||
tentang
|
||||
tentu
|
||||
tentulah
|
||||
tentunya
|
||||
tepat
|
||||
terakhir
|
||||
terasa
|
||||
terbanyak
|
||||
terdahulu
|
||||
terdapat
|
||||
terdiri
|
||||
terhadap
|
||||
terhadapnya
|
||||
teringat
|
||||
teringat-ingat
|
||||
terjadi
|
||||
terjadilah
|
||||
terjadinya
|
||||
terkira
|
||||
terlalu
|
||||
terlebih
|
||||
terlihat
|
||||
termasuk
|
||||
ternyata
|
||||
tersampaikan
|
||||
tersebut
|
||||
tersebutlah
|
||||
tertentu
|
||||
tertuju
|
||||
terus
|
||||
terutama
|
||||
tetap
|
||||
tetapi
|
||||
tiap
|
||||
tiba
|
||||
tiba-tiba
|
||||
tidak
|
||||
tidakkah
|
||||
tidaklah
|
||||
tiga
|
||||
tinggi
|
||||
toh
|
||||
tunjuk
|
||||
turut
|
||||
tutur
|
||||
tuturnya
|
||||
ucap
|
||||
ucapnya
|
||||
ujar
|
||||
ujarnya
|
||||
umum
|
||||
umumnya
|
||||
ungkap
|
||||
ungkapnya
|
||||
untuk
|
||||
usah
|
||||
usai
|
||||
waduh
|
||||
wah
|
||||
wahai
|
||||
waktu
|
||||
waktunya
|
||||
walau
|
||||
walaupun
|
||||
wong
|
||||
yaitu
|
||||
yakin
|
||||
yakni
|
||||
yang
|
|
@ -0,0 +1,279 @@
|
|||
ad
|
||||
al
|
||||
allo
|
||||
ai
|
||||
agli
|
||||
all
|
||||
agl
|
||||
alla
|
||||
alle
|
||||
con
|
||||
col
|
||||
coi
|
||||
da
|
||||
dal
|
||||
dallo
|
||||
dai
|
||||
dagli
|
||||
dall
|
||||
dagl
|
||||
dalla
|
||||
dalle
|
||||
di
|
||||
del
|
||||
dello
|
||||
dei
|
||||
degli
|
||||
dell
|
||||
degl
|
||||
della
|
||||
delle
|
||||
in
|
||||
nel
|
||||
nello
|
||||
nei
|
||||
negli
|
||||
nell
|
||||
negl
|
||||
nella
|
||||
nelle
|
||||
su
|
||||
sul
|
||||
sullo
|
||||
sui
|
||||
sugli
|
||||
sull
|
||||
sugl
|
||||
sulla
|
||||
sulle
|
||||
per
|
||||
tra
|
||||
contro
|
||||
io
|
||||
tu
|
||||
lui
|
||||
lei
|
||||
noi
|
||||
voi
|
||||
loro
|
||||
mio
|
||||
mia
|
||||
miei
|
||||
mie
|
||||
tuo
|
||||
tua
|
||||
tuoi
|
||||
tue
|
||||
suo
|
||||
sua
|
||||
suoi
|
||||
sue
|
||||
nostro
|
||||
nostra
|
||||
nostri
|
||||
nostre
|
||||
vostro
|
||||
vostra
|
||||
vostri
|
||||
vostre
|
||||
mi
|
||||
ti
|
||||
ci
|
||||
vi
|
||||
lo
|
||||
la
|
||||
li
|
||||
le
|
||||
gli
|
||||
ne
|
||||
il
|
||||
un
|
||||
uno
|
||||
una
|
||||
ma
|
||||
ed
|
||||
se
|
||||
perché
|
||||
anche
|
||||
come
|
||||
dov
|
||||
dove
|
||||
che
|
||||
chi
|
||||
cui
|
||||
non
|
||||
più
|
||||
quale
|
||||
quanto
|
||||
quanti
|
||||
quanta
|
||||
quante
|
||||
quello
|
||||
quelli
|
||||
quella
|
||||
quelle
|
||||
questo
|
||||
questi
|
||||
questa
|
||||
queste
|
||||
si
|
||||
tutto
|
||||
tutti
|
||||
a
|
||||
c
|
||||
e
|
||||
i
|
||||
l
|
||||
o
|
||||
ho
|
||||
hai
|
||||
ha
|
||||
abbiamo
|
||||
avete
|
||||
hanno
|
||||
abbia
|
||||
abbiate
|
||||
abbiano
|
||||
avrò
|
||||
avrai
|
||||
avrà
|
||||
avremo
|
||||
avrete
|
||||
avranno
|
||||
avrei
|
||||
avresti
|
||||
avrebbe
|
||||
avremmo
|
||||
avreste
|
||||
avrebbero
|
||||
avevo
|
||||
avevi
|
||||
aveva
|
||||
avevamo
|
||||
avevate
|
||||
avevano
|
||||
ebbi
|
||||
avesti
|
||||
ebbe
|
||||
avemmo
|
||||
aveste
|
||||
ebbero
|
||||
avessi
|
||||
avesse
|
||||
avessimo
|
||||
avessero
|
||||
avendo
|
||||
avuto
|
||||
avuta
|
||||
avuti
|
||||
avute
|
||||
sono
|
||||
sei
|
||||
è
|
||||
siamo
|
||||
siete
|
||||
sia
|
||||
siate
|
||||
siano
|
||||
sarò
|
||||
sarai
|
||||
sarà
|
||||
saremo
|
||||
sarete
|
||||
saranno
|
||||
sarei
|
||||
saresti
|
||||
sarebbe
|
||||
saremmo
|
||||
sareste
|
||||
sarebbero
|
||||
ero
|
||||
eri
|
||||
era
|
||||
eravamo
|
||||
eravate
|
||||
erano
|
||||
fui
|
||||
fosti
|
||||
fu
|
||||
fummo
|
||||
foste
|
||||
furono
|
||||
fossi
|
||||
fosse
|
||||
fossimo
|
||||
fossero
|
||||
essendo
|
||||
faccio
|
||||
fai
|
||||
facciamo
|
||||
fanno
|
||||
faccia
|
||||
facciate
|
||||
facciano
|
||||
farò
|
||||
farai
|
||||
farà
|
||||
faremo
|
||||
farete
|
||||
faranno
|
||||
farei
|
||||
faresti
|
||||
farebbe
|
||||
faremmo
|
||||
fareste
|
||||
farebbero
|
||||
facevo
|
||||
facevi
|
||||
faceva
|
||||
facevamo
|
||||
facevate
|
||||
facevano
|
||||
feci
|
||||
facesti
|
||||
fece
|
||||
facemmo
|
||||
faceste
|
||||
fecero
|
||||
facessi
|
||||
facesse
|
||||
facessimo
|
||||
facessero
|
||||
facendo
|
||||
sto
|
||||
stai
|
||||
sta
|
||||
stiamo
|
||||
stanno
|
||||
stia
|
||||
stiate
|
||||
stiano
|
||||
starò
|
||||
starai
|
||||
starà
|
||||
staremo
|
||||
starete
|
||||
staranno
|
||||
starei
|
||||
staresti
|
||||
starebbe
|
||||
staremmo
|
||||
stareste
|
||||
starebbero
|
||||
stavo
|
||||
stavi
|
||||
stava
|
||||
stavamo
|
||||
stavate
|
||||
stavano
|
||||
stetti
|
||||
stesti
|
||||
stette
|
||||
stemmo
|
||||
steste
|
||||
stettero
|
||||
stessi
|
||||
stesse
|
||||
stessimo
|
||||
stessero
|
||||
stando
|
|
@ -0,0 +1,380 @@
|
|||
ах
|
||||
ох
|
||||
эх
|
||||
ай
|
||||
эй
|
||||
ой
|
||||
тағы
|
||||
тағыда
|
||||
әрине
|
||||
жоқ
|
||||
сондай
|
||||
осындай
|
||||
осылай
|
||||
солай
|
||||
мұндай
|
||||
бұндай
|
||||
мен
|
||||
сен
|
||||
ол
|
||||
біз
|
||||
біздер
|
||||
олар
|
||||
сіз
|
||||
сіздер
|
||||
маған
|
||||
оған
|
||||
саған
|
||||
біздің
|
||||
сіздің
|
||||
оның
|
||||
бізге
|
||||
сізге
|
||||
оларға
|
||||
біздерге
|
||||
сіздерге
|
||||
оларға
|
||||
менімен
|
||||
сенімен
|
||||
онымен
|
||||
бізбен
|
||||
сізбен
|
||||
олармен
|
||||
біздермен
|
||||
сіздермен
|
||||
менің
|
||||
сенің
|
||||
біздің
|
||||
сіздің
|
||||
оның
|
||||
біздердің
|
||||
сіздердің
|
||||
олардың
|
||||
маған
|
||||
саған
|
||||
оған
|
||||
менен
|
||||
сенен
|
||||
одан
|
||||
бізден
|
||||
сізден
|
||||
олардан
|
||||
біздерден
|
||||
сіздерден
|
||||
олардан
|
||||
айтпақшы
|
||||
сонымен
|
||||
сондықтан
|
||||
бұл
|
||||
осы
|
||||
сол
|
||||
анау
|
||||
мынау
|
||||
сонау
|
||||
осынау
|
||||
ана
|
||||
мына
|
||||
сона
|
||||
әні
|
||||
міне
|
||||
өй
|
||||
үйт
|
||||
бүйт
|
||||
біреу
|
||||
кейбіреу
|
||||
кейбір
|
||||
қайсыбір
|
||||
әрбір
|
||||
бірнеше
|
||||
бірдеме
|
||||
бірнеше
|
||||
әркім
|
||||
әрне
|
||||
әрқайсы
|
||||
әрқалай
|
||||
әлдекім
|
||||
әлдене
|
||||
әлдеқайдан
|
||||
әлденеше
|
||||
әлдеқалай
|
||||
әлдеқашан
|
||||
алдақашан
|
||||
еш
|
||||
ешкім
|
||||
ешбір
|
||||
ештеме
|
||||
дәнеңе
|
||||
ешқашан
|
||||
ешқандай
|
||||
ешқайсы
|
||||
емес
|
||||
бәрі
|
||||
барлық
|
||||
барша
|
||||
бар
|
||||
күллі
|
||||
бүкіл
|
||||
түгел
|
||||
өз
|
||||
өзім
|
||||
өзің
|
||||
өзінің
|
||||
өзіме
|
||||
өзіне
|
||||
өзімнің
|
||||
өзі
|
||||
өзге
|
||||
менде
|
||||
сенде
|
||||
онда
|
||||
менен
|
||||
сенен онан
|
||||
одан
|
||||
ау
|
||||
па
|
||||
ей
|
||||
әй
|
||||
е
|
||||
уа
|
||||
уау
|
||||
уай
|
||||
я
|
||||
пай
|
||||
ә
|
||||
о
|
||||
оһо
|
||||
ой
|
||||
ие
|
||||
аһа
|
||||
ау
|
||||
беу
|
||||
мәссаған
|
||||
бәрекелді
|
||||
әттегенай
|
||||
жаракімалла
|
||||
масқарай
|
||||
астапыралла
|
||||
япырмай
|
||||
ойпырмай
|
||||
кәне
|
||||
кәнеки
|
||||
ал
|
||||
әйда
|
||||
кәні
|
||||
міне
|
||||
әні
|
||||
сорап
|
||||
қош-қош
|
||||
пфша
|
||||
пішә
|
||||
құрау-құрау
|
||||
шәйт
|
||||
шек
|
||||
моһ
|
||||
тәк
|
||||
құрау
|
||||
құр
|
||||
кә
|
||||
кәһ
|
||||
күшім
|
||||
күшім
|
||||
мышы
|
||||
пырс
|
||||
әукім
|
||||
алақай
|
||||
паһ-паһ
|
||||
бәрекелді
|
||||
ура
|
||||
әттең
|
||||
әттеген-ай
|
||||
қап
|
||||
түге
|
||||
пішту
|
||||
шіркін
|
||||
алатау
|
||||
пай-пай
|
||||
үшін
|
||||
сайын
|
||||
сияқты
|
||||
туралы
|
||||
арқылы
|
||||
бойы
|
||||
бойымен
|
||||
шамалы
|
||||
шақты
|
||||
қаралы
|
||||
ғұрлы
|
||||
ғұрлым
|
||||
шейін
|
||||
дейін
|
||||
қарай
|
||||
таман
|
||||
салым
|
||||
тарта
|
||||
жуық
|
||||
таяу
|
||||
гөрі
|
||||
бері
|
||||
кейін
|
||||
соң
|
||||
бұрын
|
||||
бетер
|
||||
қатар
|
||||
бірге
|
||||
қоса
|
||||
арс
|
||||
|
||||
гүрс
|
||||
|
||||
дүрс
|
||||
|
||||
қорс
|
||||
|
||||
тарс
|
||||
|
||||
тырс
|
||||
|
||||
ырс
|
||||
|
||||
барқ
|
||||
|
||||
борт
|
||||
|
||||
күрт
|
||||
|
||||
кірт
|
||||
|
||||
морт
|
||||
|
||||
сарт
|
||||
|
||||
шырт
|
||||
|
||||
дүңк
|
||||
|
||||
күңк
|
||||
|
||||
қыңқ
|
||||
|
||||
мыңқ
|
||||
|
||||
маңқ
|
||||
|
||||
саңқ
|
||||
|
||||
шаңқ
|
||||
|
||||
шіңк
|
||||
|
||||
сыңқ
|
||||
|
||||
таңқ
|
||||
|
||||
тыңқ
|
||||
|
||||
ыңқ
|
||||
|
||||
болп
|
||||
|
||||
былп
|
||||
|
||||
жалп
|
||||
|
||||
желп
|
||||
|
||||
қолп
|
||||
|
||||
ірк
|
||||
|
||||
ырқ
|
||||
|
||||
сарт-сұрт
|
||||
|
||||
тарс-тұрс
|
||||
|
||||
арс-ұрс
|
||||
|
||||
жалт-жалт
|
||||
|
||||
жалт-жұлт
|
||||
|
||||
қалт-қалт
|
||||
|
||||
қалт-құлт
|
||||
|
||||
қаңқ-қаңқ
|
||||
|
||||
қаңқ-құңқ
|
||||
|
||||
шаңқ-шаңқ
|
||||
|
||||
шаңқ-шұңқ
|
||||
|
||||
арбаң-арбаң
|
||||
|
||||
бүгжең-бүгжең
|
||||
|
||||
арсалаң-арсалаң
|
||||
|
||||
ербелең-ербелең
|
||||
|
||||
батыр-бұтыр
|
||||
|
||||
далаң-далаң
|
||||
|
||||
тарбаң-тарбаң
|
||||
|
||||
қызараң-қызараң
|
||||
|
||||
қаңғыр-күңгір
|
||||
|
||||
қайқаң-құйқаң
|
||||
|
||||
митың-митың
|
||||
|
||||
салаң-сұлаң
|
||||
|
||||
ыржың-тыржың
|
||||
бірақ
|
||||
алайда
|
||||
дегенмен
|
||||
әйтпесе
|
||||
әйткенмен
|
||||
себебі
|
||||
өйткені
|
||||
сондықтан
|
||||
үшін
|
||||
сайын
|
||||
сияқты
|
||||
туралы
|
||||
арқылы
|
||||
бойы
|
||||
бойымен
|
||||
шамалы
|
||||
шақты
|
||||
қаралы
|
||||
ғұрлы
|
||||
ғұрлым
|
||||
гөрі
|
||||
бері
|
||||
кейін
|
||||
соң
|
||||
бұрын
|
||||
бетер
|
||||
қатар
|
||||
бірге
|
||||
қоса
|
||||
шейін
|
||||
дейін
|
||||
қарай
|
||||
таман
|
||||
салым
|
||||
тарта
|
||||
жуық
|
||||
таяу
|
||||
арнайы
|
||||
осындай
|
||||
ғана
|
||||
қана
|
||||
тек
|
||||
әншейін
|
|
@ -0,0 +1,255 @@
|
|||
छ
|
||||
र
|
||||
पनि
|
||||
छन्
|
||||
लागि
|
||||
भएको
|
||||
गरेको
|
||||
भने
|
||||
गर्न
|
||||
गर्ने
|
||||
हो
|
||||
तथा
|
||||
यो
|
||||
रहेको
|
||||
उनले
|
||||
थियो
|
||||
हुने
|
||||
गरेका
|
||||
थिए
|
||||
गर्दै
|
||||
तर
|
||||
नै
|
||||
को
|
||||
मा
|
||||
हुन्
|
||||
भन्ने
|
||||
हुन
|
||||
गरी
|
||||
त
|
||||
हुन्छ
|
||||
अब
|
||||
के
|
||||
रहेका
|
||||
गरेर
|
||||
छैन
|
||||
दिए
|
||||
भए
|
||||
यस
|
||||
ले
|
||||
गर्नु
|
||||
औं
|
||||
सो
|
||||
त्यो
|
||||
कि
|
||||
जुन
|
||||
यी
|
||||
का
|
||||
गरि
|
||||
ती
|
||||
न
|
||||
छु
|
||||
छौं
|
||||
लाई
|
||||
नि
|
||||
उप
|
||||
अक्सर
|
||||
आदि
|
||||
कसरी
|
||||
क्रमशः
|
||||
चाले
|
||||
अगाडी
|
||||
अझै
|
||||
अनुसार
|
||||
अन्तर्गत
|
||||
अन्य
|
||||
अन्यत्र
|
||||
अन्यथा
|
||||
अरु
|
||||
अरुलाई
|
||||
अर्को
|
||||
अर्थात
|
||||
अर्थात्
|
||||
अलग
|
||||
आए
|
||||
आजको
|
||||
ओठ
|
||||
आत्म
|
||||
आफू
|
||||
आफूलाई
|
||||
आफ्नै
|
||||
आफ्नो
|
||||
आयो
|
||||
उदाहरण
|
||||
उनको
|
||||
उहालाई
|
||||
एउटै
|
||||
एक
|
||||
एकदम
|
||||
कतै
|
||||
कम से कम
|
||||
कसै
|
||||
कसैले
|
||||
कहाँबाट
|
||||
कहिलेकाहीं
|
||||
का
|
||||
किन
|
||||
किनभने
|
||||
कुनै
|
||||
कुरा
|
||||
कृपया
|
||||
केही
|
||||
कोही
|
||||
गए
|
||||
गरौं
|
||||
गर्छ
|
||||
गर्छु
|
||||
गर्नुपर्छ
|
||||
गयौ
|
||||
गैर
|
||||
चार
|
||||
चाहनुहुन्छ
|
||||
चाहन्छु
|
||||
चाहिए
|
||||
छू
|
||||
जताततै
|
||||
जब
|
||||
जबकि
|
||||
जसको
|
||||
जसबाट
|
||||
जसमा
|
||||
जसलाई
|
||||
जसले
|
||||
जस्तै
|
||||
जस्तो
|
||||
जस्तोसुकै
|
||||
जहाँ
|
||||
जान
|
||||
जाहिर
|
||||
जे
|
||||
जो
|
||||
ठीक
|
||||
तत्काल
|
||||
तदनुसार
|
||||
तपाईको
|
||||
तपाई
|
||||
पर्याप्त
|
||||
पहिले
|
||||
पहिलो
|
||||
पहिल्यै
|
||||
पाँच
|
||||
पाँचौं
|
||||
तल
|
||||
तापनी
|
||||
तिनी
|
||||
तिनीहरू
|
||||
तिनीहरुको
|
||||
तिनिहरुलाई
|
||||
तिमी
|
||||
तिर
|
||||
तीन
|
||||
तुरुन्तै
|
||||
तेस्रो
|
||||
तेस्कारण
|
||||
पूर्व
|
||||
प्रति
|
||||
प्रतेक
|
||||
प्लस
|
||||
फेरी
|
||||
बने
|
||||
त्सपछि
|
||||
त्सैले
|
||||
त्यहाँ
|
||||
थिएन
|
||||
दिनुभएको
|
||||
दिनुहुन्छ
|
||||
दुई
|
||||
देखि
|
||||
बरु
|
||||
बारे
|
||||
बाहिर
|
||||
देखिन्छ
|
||||
देखियो
|
||||
देखे
|
||||
देखेको
|
||||
देखेर
|
||||
दोस्रो
|
||||
धेरै
|
||||
नजिकै
|
||||
नत्र
|
||||
नयाँ
|
||||
निम्ति
|
||||
बाहेक
|
||||
बीच
|
||||
बीचमा
|
||||
भन
|
||||
निम्न
|
||||
निम्नानुसार
|
||||
निर्दिष्ट
|
||||
नौ
|
||||
पक्का
|
||||
पक्कै
|
||||
पछि
|
||||
पछिल्लो
|
||||
पटक
|
||||
पर्छ
|
||||
पर्थ्यो
|
||||
भन्छन्
|
||||
भन्
|
||||
भन्छु
|
||||
भन्दा
|
||||
भन्नुभयो
|
||||
भर
|
||||
भित्र
|
||||
भित्री
|
||||
म
|
||||
मलाई
|
||||
मात्र
|
||||
माथि
|
||||
मुख्य
|
||||
मेरो
|
||||
यति
|
||||
यथोचित
|
||||
यदि
|
||||
यद्यपि
|
||||
यसको
|
||||
यसपछि
|
||||
यसबाहेक
|
||||
यसरी
|
||||
यसो
|
||||
यस्तो
|
||||
यहाँ
|
||||
यहाँसम्म
|
||||
या
|
||||
रही
|
||||
राखे
|
||||
राख्छ
|
||||
राम्रो
|
||||
रूप
|
||||
लगभग
|
||||
वरीपरी
|
||||
वास्तवमा
|
||||
बिरुद्ध
|
||||
बिशेष
|
||||
सायद
|
||||
शायद
|
||||
संग
|
||||
संगै
|
||||
सक्छ
|
||||
सट्टा
|
||||
सधै
|
||||
सबै
|
||||
सबैलाई
|
||||
समय
|
||||
सम्भव
|
||||
सम्म
|
||||
सही
|
||||
साँच्चै
|
||||
सात
|
||||
साथ
|
||||
साथै
|
||||
सारा
|
||||
सोही
|
||||
स्पष्ट
|
||||
हरे
|
||||
हरेक
|
|
@ -0,0 +1,176 @@
|
|||
og
|
||||
i
|
||||
jeg
|
||||
det
|
||||
at
|
||||
en
|
||||
et
|
||||
den
|
||||
til
|
||||
er
|
||||
som
|
||||
på
|
||||
de
|
||||
med
|
||||
han
|
||||
av
|
||||
ikke
|
||||
ikkje
|
||||
der
|
||||
så
|
||||
var
|
||||
meg
|
||||
seg
|
||||
men
|
||||
ett
|
||||
har
|
||||
om
|
||||
vi
|
||||
min
|
||||
mitt
|
||||
ha
|
||||
hadde
|
||||
hun
|
||||
nå
|
||||
over
|
||||
da
|
||||
ved
|
||||
fra
|
||||
du
|
||||
ut
|
||||
sin
|
||||
dem
|
||||
oss
|
||||
opp
|
||||
man
|
||||
kan
|
||||
hans
|
||||
hvor
|
||||
eller
|
||||
hva
|
||||
skal
|
||||
selv
|
||||
sjøl
|
||||
her
|
||||
alle
|
||||
vil
|
||||
bli
|
||||
ble
|
||||
blei
|
||||
blitt
|
||||
kunne
|
||||
inn
|
||||
når
|
||||
være
|
||||
kom
|
||||
noen
|
||||
noe
|
||||
ville
|
||||
dere
|
||||
som
|
||||
deres
|
||||
kun
|
||||
ja
|
||||
etter
|
||||
ned
|
||||
skulle
|
||||
denne
|
||||
for
|
||||
deg
|
||||
si
|
||||
sine
|
||||
sitt
|
||||
mot
|
||||
å
|
||||
meget
|
||||
hvorfor
|
||||
dette
|
||||
disse
|
||||
uten
|
||||
hvordan
|
||||
ingen
|
||||
din
|
||||
ditt
|
||||
blir
|
||||
samme
|
||||
hvilken
|
||||
hvilke
|
||||
sånn
|
||||
inni
|
||||
mellom
|
||||
vår
|
||||
hver
|
||||
hvem
|
||||
vors
|
||||
hvis
|
||||
både
|
||||
bare
|
||||
enn
|
||||
fordi
|
||||
før
|
||||
mange
|
||||
også
|
||||
slik
|
||||
vært
|
||||
være
|
||||
båe
|
||||
begge
|
||||
siden
|
||||
dykk
|
||||
dykkar
|
||||
dei
|
||||
deira
|
||||
deires
|
||||
deim
|
||||
di
|
||||
då
|
||||
eg
|
||||
ein
|
||||
eit
|
||||
eitt
|
||||
elles
|
||||
honom
|
||||
hjå
|
||||
ho
|
||||
hoe
|
||||
henne
|
||||
hennar
|
||||
hennes
|
||||
hoss
|
||||
hossen
|
||||
ikkje
|
||||
ingi
|
||||
inkje
|
||||
korleis
|
||||
korso
|
||||
kva
|
||||
kvar
|
||||
kvarhelst
|
||||
kven
|
||||
kvi
|
||||
kvifor
|
||||
me
|
||||
medan
|
||||
mi
|
||||
mine
|
||||
mykje
|
||||
no
|
||||
nokon
|
||||
noka
|
||||
nokor
|
||||
noko
|
||||
nokre
|
||||
si
|
||||
sia
|
||||
sidan
|
||||
so
|
||||
somt
|
||||
somme
|
||||
um
|
||||
upp
|
||||
vere
|
||||
vore
|
||||
verte
|
||||
vort
|
||||
varte
|
||||
vart
|
|
@ -0,0 +1,204 @@
|
|||
de
|
||||
a
|
||||
o
|
||||
que
|
||||
e
|
||||
é
|
||||
do
|
||||
da
|
||||
em
|
||||
um
|
||||
para
|
||||
com
|
||||
não
|
||||
uma
|
||||
os
|
||||
no
|
||||
se
|
||||
na
|
||||
por
|
||||
mais
|
||||
as
|
||||
dos
|
||||
como
|
||||
mas
|
||||
ao
|
||||
ele
|
||||
das
|
||||
à
|
||||
seu
|
||||
sua
|
||||
ou
|
||||
quando
|
||||
muito
|
||||
nos
|
||||
já
|
||||
eu
|
||||
também
|
||||
só
|
||||
pelo
|
||||
pela
|
||||
até
|
||||
isso
|
||||
ela
|
||||
entre
|
||||
depois
|
||||
sem
|
||||
mesmo
|
||||
aos
|
||||
seus
|
||||
quem
|
||||
nas
|
||||
me
|
||||
esse
|
||||
eles
|
||||
você
|
||||
essa
|
||||
num
|
||||
nem
|
||||
suas
|
||||
meu
|
||||
às
|
||||
minha
|
||||
numa
|
||||
pelos
|
||||
elas
|
||||
qual
|
||||
nós
|
||||
lhe
|
||||
deles
|
||||
essas
|
||||
esses
|
||||
pelas
|
||||
este
|
||||
dele
|
||||
tu
|
||||
te
|
||||
vocês
|
||||
vos
|
||||
lhes
|
||||
meus
|
||||
minhas
|
||||
teu
|
||||
tua
|
||||
teus
|
||||
tuas
|
||||
nosso
|
||||
nossa
|
||||
nossos
|
||||
nossas
|
||||
dela
|
||||
delas
|
||||
esta
|
||||
estes
|
||||
estas
|
||||
aquele
|
||||
aquela
|
||||
aqueles
|
||||
aquelas
|
||||
isto
|
||||
aquilo
|
||||
estou
|
||||
está
|
||||
estamos
|
||||
estão
|
||||
estive
|
||||
esteve
|
||||
estivemos
|
||||
estiveram
|
||||
estava
|
||||
estávamos
|
||||
estavam
|
||||
estivera
|
||||
estivéramos
|
||||
esteja
|
||||
estejamos
|
||||
estejam
|
||||
estivesse
|
||||
estivéssemos
|
||||
estivessem
|
||||
estiver
|
||||
estivermos
|
||||
estiverem
|
||||
hei
|
||||
há
|
||||
havemos
|
||||
hão
|
||||
houve
|
||||
houvemos
|
||||
houveram
|
||||
houvera
|
||||
houvéramos
|
||||
haja
|
||||
hajamos
|
||||
hajam
|
||||
houvesse
|
||||
houvéssemos
|
||||
houvessem
|
||||
houver
|
||||
houvermos
|
||||
houverem
|
||||
houverei
|
||||
houverá
|
||||
houveremos
|
||||
houverão
|
||||
houveria
|
||||
houveríamos
|
||||
houveriam
|
||||
sou
|
||||
somos
|
||||
são
|
||||
era
|
||||
éramos
|
||||
eram
|
||||
fui
|
||||
foi
|
||||
fomos
|
||||
foram
|
||||
fora
|
||||
fôramos
|
||||
seja
|
||||
sejamos
|
||||
sejam
|
||||
fosse
|
||||
fôssemos
|
||||
fossem
|
||||
for
|
||||
formos
|
||||
forem
|
||||
serei
|
||||
será
|
||||
seremos
|
||||
serão
|
||||
seria
|
||||
seríamos
|
||||
seriam
|
||||
tenho
|
||||
tem
|
||||
temos
|
||||
tém
|
||||
tinha
|
||||
tínhamos
|
||||
tinham
|
||||
tive
|
||||
teve
|
||||
tivemos
|
||||
tiveram
|
||||
tivera
|
||||
tivéramos
|
||||
tenha
|
||||
tenhamos
|
||||
tenham
|
||||
tivesse
|
||||
tivéssemos
|
||||
tivessem
|
||||
tiver
|
||||
tivermos
|
||||
tiverem
|
||||
terei
|
||||
terá
|
||||
teremos
|
||||
terão
|
||||
teria
|
||||
teríamos
|
||||
teriam
|
|
@ -0,0 +1,356 @@
|
|||
a
|
||||
abia
|
||||
acea
|
||||
aceasta
|
||||
această
|
||||
aceea
|
||||
aceeasi
|
||||
acei
|
||||
aceia
|
||||
acel
|
||||
acela
|
||||
acelasi
|
||||
acele
|
||||
acelea
|
||||
acest
|
||||
acesta
|
||||
aceste
|
||||
acestea
|
||||
acestei
|
||||
acestia
|
||||
acestui
|
||||
aceşti
|
||||
aceştia
|
||||
adica
|
||||
ai
|
||||
aia
|
||||
aibă
|
||||
aici
|
||||
al
|
||||
ala
|
||||
ale
|
||||
alea
|
||||
alt
|
||||
alta
|
||||
altceva
|
||||
altcineva
|
||||
alte
|
||||
altfel
|
||||
alti
|
||||
altii
|
||||
altul
|
||||
am
|
||||
anume
|
||||
apoi
|
||||
ar
|
||||
are
|
||||
as
|
||||
asa
|
||||
asta
|
||||
astea
|
||||
astfel
|
||||
asupra
|
||||
atare
|
||||
atat
|
||||
atata
|
||||
atatea
|
||||
atatia
|
||||
ati
|
||||
atit
|
||||
atita
|
||||
atitea
|
||||
atitia
|
||||
atunci
|
||||
au
|
||||
avea
|
||||
avem
|
||||
aveţi
|
||||
avut
|
||||
aş
|
||||
aţi
|
||||
ba
|
||||
ca
|
||||
cam
|
||||
cand
|
||||
care
|
||||
careia
|
||||
carora
|
||||
caruia
|
||||
cat
|
||||
catre
|
||||
ce
|
||||
cea
|
||||
ceea
|
||||
cei
|
||||
ceilalti
|
||||
cel
|
||||
cele
|
||||
celor
|
||||
ceva
|
||||
chiar
|
||||
ci
|
||||
cind
|
||||
cine
|
||||
cineva
|
||||
cit
|
||||
cita
|
||||
cite
|
||||
citeva
|
||||
citi
|
||||
citiva
|
||||
cu
|
||||
cui
|
||||
cum
|
||||
cumva
|
||||
cât
|
||||
câte
|
||||
câtva
|
||||
câţi
|
||||
cînd
|
||||
cît
|
||||
cîte
|
||||
cîtva
|
||||
cîţi
|
||||
că
|
||||
căci
|
||||
cărei
|
||||
căror
|
||||
cărui
|
||||
către
|
||||
da
|
||||
daca
|
||||
dacă
|
||||
dar
|
||||
dat
|
||||
dată
|
||||
dau
|
||||
de
|
||||
deasupra
|
||||
deci
|
||||
decit
|
||||
deja
|
||||
desi
|
||||
despre
|
||||
deşi
|
||||
din
|
||||
dintr
|
||||
dintr-
|
||||
dintre
|
||||
doar
|
||||
doi
|
||||
doilea
|
||||
două
|
||||
drept
|
||||
dupa
|
||||
după
|
||||
dă
|
||||
e
|
||||
ea
|
||||
ei
|
||||
el
|
||||
ele
|
||||
era
|
||||
eram
|
||||
este
|
||||
eu
|
||||
eşti
|
||||
face
|
||||
fara
|
||||
fata
|
||||
fel
|
||||
fi
|
||||
fie
|
||||
fiecare
|
||||
fii
|
||||
fim
|
||||
fiu
|
||||
fiţi
|
||||
foarte
|
||||
fost
|
||||
fără
|
||||
i
|
||||
ia
|
||||
iar
|
||||
ii
|
||||
il
|
||||
imi
|
||||
in
|
||||
inainte
|
||||
inapoi
|
||||
inca
|
||||
incit
|
||||
insa
|
||||
intr
|
||||
intre
|
||||
isi
|
||||
iti
|
||||
la
|
||||
le
|
||||
li
|
||||
lor
|
||||
lui
|
||||
lângă
|
||||
lîngă
|
||||
m
|
||||
ma
|
||||
mai
|
||||
mea
|
||||
mei
|
||||
mele
|
||||
mereu
|
||||
meu
|
||||
mi
|
||||
mie
|
||||
mine
|
||||
mod
|
||||
mult
|
||||
multa
|
||||
multe
|
||||
multi
|
||||
multă
|
||||
mulţi
|
||||
mâine
|
||||
mîine
|
||||
mă
|
||||
ne
|
||||
ni
|
||||
nici
|
||||
nimeni
|
||||
nimic
|
||||
niste
|
||||
nişte
|
||||
noastre
|
||||
noastră
|
||||
noi
|
||||
nostri
|
||||
nostru
|
||||
nou
|
||||
noua
|
||||
nouă
|
||||
noştri
|
||||
nu
|
||||
numai
|
||||
o
|
||||
or
|
||||
ori
|
||||
oricare
|
||||
orice
|
||||
oricine
|
||||
oricum
|
||||
oricând
|
||||
oricât
|
||||
oricînd
|
||||
oricît
|
||||
oriunde
|
||||
pai
|
||||
parca
|
||||
patra
|
||||
patru
|
||||
pe
|
||||
pentru
|
||||
peste
|
||||
pic
|
||||
pina
|
||||
poate
|
||||
pot
|
||||
prea
|
||||
prima
|
||||
primul
|
||||
prin
|
||||
printr-
|
||||
putini
|
||||
puţin
|
||||
puţina
|
||||
puţină
|
||||
până
|
||||
pînă
|
||||
sa
|
||||
sa-mi
|
||||
sa-ti
|
||||
sai
|
||||
sale
|
||||
sau
|
||||
se
|
||||
si
|
||||
sint
|
||||
sintem
|
||||
spate
|
||||
spre
|
||||
sub
|
||||
sunt
|
||||
suntem
|
||||
sunteţi
|
||||
sus
|
||||
să
|
||||
săi
|
||||
său
|
||||
t
|
||||
ta
|
||||
tale
|
||||
te
|
||||
ti
|
||||
tine
|
||||
toata
|
||||
toate
|
||||
toată
|
||||
tocmai
|
||||
tot
|
||||
toti
|
||||
totul
|
||||
totusi
|
||||
totuşi
|
||||
toţi
|
||||
trei
|
||||
treia
|
||||
treilea
|
||||
tu
|
||||
tuturor
|
||||
tăi
|
||||
tău
|
||||
u
|
||||
ul
|
||||
ului
|
||||
un
|
||||
una
|
||||
unde
|
||||
undeva
|
||||
unei
|
||||
uneia
|
||||
unele
|
||||
uneori
|
||||
unii
|
||||
unor
|
||||
unora
|
||||
unu
|
||||
unui
|
||||
unuia
|
||||
unul
|
||||
v
|
||||
va
|
||||
vi
|
||||
voastre
|
||||
voastră
|
||||
voi
|
||||
vom
|
||||
vor
|
||||
vostru
|
||||
vouă
|
||||
voştri
|
||||
vreo
|
||||
vreun
|
||||
vă
|
||||
zi
|
||||
zice
|
||||
îi
|
||||
îl
|
||||
îmi
|
||||
în
|
||||
îţi
|
||||
ăla
|
||||
ălea
|
||||
ăsta
|
||||
ăstea
|
||||
ăştia
|
||||
şi
|
||||
ţi
|
||||
ţie
|
|
@ -0,0 +1,151 @@
|
|||
и
|
||||
в
|
||||
во
|
||||
не
|
||||
что
|
||||
он
|
||||
на
|
||||
я
|
||||
с
|
||||
со
|
||||
как
|
||||
а
|
||||
то
|
||||
все
|
||||
она
|
||||
так
|
||||
его
|
||||
но
|
||||
да
|
||||
ты
|
||||
к
|
||||
у
|
||||
же
|
||||
вы
|
||||
за
|
||||
бы
|
||||
по
|
||||
только
|
||||
ее
|
||||
мне
|
||||
было
|
||||
вот
|
||||
от
|
||||
меня
|
||||
еще
|
||||
нет
|
||||
о
|
||||
из
|
||||
ему
|
||||
теперь
|
||||
когда
|
||||
даже
|
||||
ну
|
||||
вдруг
|
||||
ли
|
||||
если
|
||||
уже
|
||||
или
|
||||
ни
|
||||
быть
|
||||
был
|
||||
него
|
||||
до
|
||||
вас
|
||||
нибудь
|
||||
опять
|
||||
уж
|
||||
вам
|
||||
ведь
|
||||
там
|
||||
потом
|
||||
себя
|
||||
ничего
|
||||
ей
|
||||
может
|
||||
они
|
||||
тут
|
||||
где
|
||||
есть
|
||||
надо
|
||||
ней
|
||||
для
|
||||
мы
|
||||
тебя
|
||||
их
|
||||
чем
|
||||
была
|
||||
сам
|
||||
чтоб
|
||||
без
|
||||
будто
|
||||
чего
|
||||
раз
|
||||
тоже
|
||||
себе
|
||||
под
|
||||
будет
|
||||
ж
|
||||
тогда
|
||||
кто
|
||||
этот
|
||||
того
|
||||
потому
|
||||
этого
|
||||
какой
|
||||
совсем
|
||||
ним
|
||||
здесь
|
||||
этом
|
||||
один
|
||||
почти
|
||||
мой
|
||||
тем
|
||||
чтобы
|
||||
нее
|
||||
сейчас
|
||||
были
|
||||
куда
|
||||
зачем
|
||||
всех
|
||||
никогда
|
||||
можно
|
||||
при
|
||||
наконец
|
||||
два
|
||||
об
|
||||
другой
|
||||
хоть
|
||||
после
|
||||
над
|
||||
больше
|
||||
тот
|
||||
через
|
||||
эти
|
||||
нас
|
||||
про
|
||||
всего
|
||||
них
|
||||
какая
|
||||
много
|
||||
разве
|
||||
три
|
||||
эту
|
||||
моя
|
||||
впрочем
|
||||
хорошо
|
||||
свою
|
||||
этой
|
||||
перед
|
||||
иногда
|
||||
лучше
|
||||
чуть
|
||||
том
|
||||
нельзя
|
||||
такой
|
||||
им
|
||||
более
|
||||
всегда
|
||||
конечно
|
||||
всю
|
||||
между
|
Some files were not shown because too many files have changed in this diff Show More
Loading…
Reference in New Issue