AIで私が設定する大きな目的
(2024/3/3改訂)
私が出したい結論は「使うAIは使う使う人が作ろう!」です。
むろん、AIの作成は簡単ではありません。先ずはPythonを使って「特定サイトの言語の分析をした後に要約するソフト」を作ってみます。
【本稿ではChatGPTでとの質疑応答を参考に記事作成を進めてみます】
なにより、Pythonプログラムに関しては初歩的な知識しかない為に
識者から見たら見当違いの部分があるでしょうがご了承ください。
識者から見たら見当違いの部分があるでしょうがご了承ください。
私は独自性に意義を感じています。
有益な学習サイトやプログラミングスクールが存在する事も忘れてはいけません。
多くの場合は効率よく貴方の理想像を具現できる筈です。
多くの場合は効率よく貴方の理想像を具現できる筈です。
実際のPythonを使用した特定サイトの言語分析
さて、実際にPythonを使用して特定サイトの言語を分析し、要約するプロジェクトを
始めるための一般的なステップやライブラリについて初心者レベルで分析をしてみましょう。
始めるための一般的なステップやライブラリについて初心者レベルで分析をしてみましょう。
Webスクレイピング:
BeautifulSoupやRequestsなどのライブラリを使用して、特定のウェブサイトからテキストデータを取得します。
自然言語処理 (NLP):
テキストデータを処理するために、NLPライブラリを使用します。NLTKやspaCyなどが選択肢です。
言語の分析:
NLPツールを使用して、テキスト内のキーワード、文の構造、感情などを分析します。
要約アルゴリズムの実装:
抽出的要約や抽象的要約のアルゴリズムを使用して、分析された情報から要約を生成します。
PIPコマンドを適時活用しましょう。
以下は、簡単な例です。(注意①:インデントは考えていません。ご注意。)
(注意②:ライブラリー等無いと実際のプログラミングとしては機能しません):
import requests
from bs4 import BeautifulSoup
from nltk.tokenize import sent_tokenize
from nltk.corpus import stopwords
from nltk.probability import FreqDist
# ウェブサイトからデータを取得
url = "特定のサイトのURL"
response = requests.get(url) #Getメゾットの適用
html = response.text
# HTML解析
soup = BeautifulSoup(html, 'html.parser')
# テキストデータ取得
text_data = soup.get_text()
# 文に分割
sentences = sent_tokenize(text_data)
# ストップワード除去
stop_words = set(stopwords.words("言語"))
filtered_sentences = [sentence for sentence in sentences if sentence.lower() not in stop_words]
# 文の重要度を計算
word_frequencies = FreqDist(filtered_sentences)
# 重要度が高い順にソート
sorted_sentences = sorted(sentences, key=lambda x: word_frequencies[x], reverse=True)
# 上位3文を選択して要約
summary = " ".join(sorted_sentences[:3])
print(summary)
この例では、
①ウェブスクレイピング、
②テキストデータのトークン化、
③ストップワードの除去、
④文の重要度の計算
などが含まれています。
要約の品質を向上させるためには、
より洗練されたNLP技術や
要約アルゴリズムを使用する必要があります。
〆最後に〆
以上、間違い・ご意見は
次のアドレスまでお願いします。
最近は全て返信出来てませんが
適時、返信して改定をします。
nowkouji226@gmail.com
【全体の纏め記事へ】