你好!今天,我想给你提供一些关于聊天机器人的信息以及这种技术的工作原理。如今,聊天机器人被广泛应用于各种场景,我决定自己尝试一下这项技术。我创建了一个使用 OpenAI 的 Whisper 模型的聊天机器人。该模型能够将收到的音频输入转换为文本,然后将这些基于文本的问题传递给 OpenAI 的 LLM 模型以获取响应。现在,我正在解释这个聊天机器人的工作原理以及如何设置,因此你可以和我一起走这段旅程。
下载 Requirements.txt 文件
openai
flask
python-dotenv
flask-cors
创建 requirements 文件后,您可以使用以下命令下载它:
pip3 install -r requirements.txt
导入库
from openai import OpenAI, OpenAIError
from flask import Flask, request, jsonify
from dotenv import load_dotenv
import os
from flask_cors import CORS
from tempfile import NamedTemporaryFile
将 OpenAI 与 Flask 集成
首先,我们需要创建一个 .env 文件,通过这个文件我们可以集成我们的 OpenAI 密钥。您也可以从以下链接获取 OpenAI 密钥:
OpenAI API openai.com开始编码吧!!!
load_dotenv()
OPENAI_API_KEY = os.getenv('OPENAI_API_KEY')
client = OpenAI(api_key=OPENAI_API_KEY)
app = Flask(__name__)
CORS(app)
- load_dotenv(): 从 .env 文件加载环境变量。
- OPENAI_API_KEY = os.getenv('OPENAI_API_KEY'): 从环境变量中检索 OpenAI API 密钥。
- client = OpenAI(api_key=OPENAI_API_KEY): 初始化 OpenAI API 的客户端对象。
- app = Flask(__name__): 创建一个 Flask Web 应用程序。
- CORS(app): 为 Flask 应用启用跨源资源共享支持。
设置函数
让我们从第一个函数开始
- 获取 OpenAI 响应
@app.route('/get_response', methods=['POST'])
def get_openai_response():
message = request.json.get('message', '')
if not message:
return jsonify({'error': "Message is required."}), 400
try:
response = client.chat.completions.create(
model="gpt-4",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": message}
]
)
chat_response = response.choices[0].message.content
return jsonify({'response': chat_response})
except Exception as e:
return jsonify({'error': str(e)}), 500
- 获取 OpenAI 文本响应
def get_openai_text_response(message):
if not message:
return {'error': "Message is required."}
try:
response = client.chat.completions.create(
model="gpt-4",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": message}
]
)
chat_response = response.choices[0].message.content
return {'response': chat_response}
except Exception as e:
return {'error': str(e)}
- 处理语音并获取响应
@app.route('/whisper', methods=['POST'])
def handle_voice_and_get_response():
results = []
for filename, handle in request.files.items():
temp = NamedTemporaryFile(suffix=".wav",delete=False)
handle.save(temp)
with open(temp.name, "rb") as audio_file:
transcription = client.audio.transcriptions.create(
model="whisper-1",
file=audio_file
)
transcript = transcription.text
openai_response = get_openai_text_response(transcript)
results.append({
'filename': filename,
'transcript': transcript,
'openai_response': openai_response
})
return results
if __name__ == '__main__':
app.run(debug=True)
这一行确保当脚本直接执行时,Flask 应用以调试模式运行。
这些定义共同使得 Flask Web 应用能够与 OpenAI 的 API 进行交互,处理文本和音频输入,并生成 OpenAI 的语言处理模型产生的响应。
现在我们已经完成了后端部分,是时候查看我们在前端部分准备的函数的功能了。
前端部分
MUI(Material-UI)是一个我用于设计前端的 React UI 库,它利用了受 Google 材料设计启发的预构建组件,便于创建视觉精美且响应迅速的用户界面。
总的来说,构建一个由 OpenAI 的 Whisper 模型驱动的语音聊天机器人,并与 Flask 集成,是一次丰富的经历。通过利用 OpenAI 先进语言模型的能力,加上 Flask 和 Material-UI 提供的开发便利,我们创建了一个无缝的语音互动用户体验。特别感谢我的同事 Ebru Boyac? 在前端开发中的宝贵贡献。如果您有任何问题或建议,请随时联系我。
对于那些有兴趣进一步探索代码的朋友,您可以在我的 GitHub 账户上找到整个项目。
GitHub 仓库链接:https://github.com/toygunozyurekk/Voice-Chatbot
请随意自定义 GitHub 仓库链接以匹配您实际的仓库 URL。
参考文章:Voice Chatbot(OpenAI-Whisper)
本文暂时没有评论,来添加一个吧(●'◡'●)