ケニア市場

ケニア訪問・医療市場調査(2024.03.02 – 2024.03.09)(1)- ナイロビCBDの路面店の薬局

New Lemuma Pharmacy日時2024/03/03 Sun 10:00 a.m.地域Nairobi CBD (Central Business District)通りが1つ変わると、人で溢れ、バスの案内や車の誘導で大声で叫んでいる人がおり、その喧騒とした雰囲気の中を少しの間、歩くだけでも緊張するエリアでした。街には、薬局、金融、携帯のお店が多かった印象でした。ショーケース主な質問営業時間は?勤務シフトは?月収は?休日数は?薬剤師数は?スタッフの種類は?1日の処方箋数は?顧客の待ち時間は?どの国の薬が多い?どういうテストを行えるか?どういう顧客が多いか?OTCか、医者を進めるかの振り分け方は?何日分から薬を買えるか?オンライン診療を使っているか?参照https://newlemumapharmacy.co.ke/

DeepLearning

ディープラーニング講座「機械学習Specialization- 教師あり機械学習回帰と分類」の紹介

「教師あり機械学習回帰と分類」コースとは機械学習Specializationの3つのうちの最初のコース。一般的な機械学習ライブラリNumPyとscikit-learnを使用して、Pythonで機械学習モデルを構築します。 - 線形回帰やロジスティック回帰を含む、予測タスクやバイナリ分類タスクのための教師あり機械学習モデルを構築し、訓練します。 機械学習Specializationとは機械学習Specializationは、DeepLearning.AIとスタンフォード・オンラインが共同で作成した基礎的なオンラインプログラムです。この初心者向けのプログラムでは、機械学習の基礎と、これらのテクニックを使用して実際のAIアプリケーションを構築する方法を学習します。DeepLearning.AIがCourseraにて提供するコースhttps://www.coursera.org/learn/machine-learning

HealthKit

HealthKitアプリSwiftコードの紹介(6) – ヘルスデータのアップロード

HealthKitへのアクセス許可HKHealthStoreクラスのrequestAuthorization(toShare:read:completion:)メソッドは、HealthKitフレームワークを使用してユーザーからアプリへのデータアクセス許可をリクエストするために使用されます。このメソッドは、データの共有(書き込み)と読み取りの種類を指定し、ユーザーに対してそれらのデータへのアクセス許可を求めます。具体的には、次のようなパラメータを取ります:typesToShare: アプリがHealthKitに書き込むことを要求するデータの種類を指定するHKSampleTypeのセットです。例えば、身体活動データ、栄養データ、睡眠データなどが含まれます。typesToRead: アプリがHealthKitから読み取ることを要求するデータの種類を指定するHKObjectTypeのセットです。例えば、心拍数、血圧、歩数などが含まれます。completion: リクエストが完了した後に呼び出されるクロージャです。このクロージャは、次のパラメータを取ります:success: ユ

HealthKit

HealthKitアプリSwiftコードの紹介(5) – SwiftUIによるビューの実装

MyAppクラス:WindowGroupによるメインビューの定義ここからはSwiftUIによるビューのコードを説明していきます。SwiftUIは、Appleが提供するモダンなUIフレームワークであり、Swift言語でiOS、macOS、watchOS、tvOSアプリケーションを構築するための手段です。SwiftUIでは、状態駆動型のUIを構築し、シンプルで直感的な構文を使用してアプリケーションのビューを定義します。このコードは、SwiftUIのアプリケーションを定義しています。MyApp は App プロトコルを準拠しており、アプリケーションのエントリーポイントとなります。import SwiftUIimport Swinject@mainstruct MyApp: App { @AppStorage("isDarkMode") var isDarkMode: Bool = true // inject into SwiftUI life-cycle via adaptor !!! @UIApplicatio

音声認識

OpenAIが提供する音声認識オープンソースWhisperとは(5)

ソースを確認するtranscribe関数の定義def transcribe( model: "Whisper", audio: Union, *, verbose: Optional = None, temperature: Union = (0.0, 0.2, 0.4, 0.6, 0.8, 1.0), compression_ratio_threshold: Optional = 2.4, logprob_threshold: Optional = -1.0, no_speech_threshold: Optional = 0.6, condition_on_previous_text: bool = True, initial_prompt: Optional = None, word_timestamps: bool = False, prepend_punctuations: str = "\"'“¿([{-&quot

音声認識

OpenAIが提供する音声認識オープンソースWhisperとは(4)

whisperのデバッグ環境構築whisperのソースコードをチェックアウトするgit clone https://github.com/openai/whisper.gitcd whispertest.pyの作成import sysfrom whisper.transcribe import cliif __name__ == '__main__': sys.exit(cli())test.pyの実行python test.py sample.mp4 --language Englishtranscribe.pydef cli():・・・ model = load_model(model_name, device=device, download_root=model_dir)・・・ソースを確認するload_model関数を読むデフォルト時の引数は、model_name=small, device=cpu, download_root=Noneが使用さ

音声認識

OpenAIが提供する音声認識オープンソースWhisperとは(3)

transcribe関数の確認def transcribe( model: "Whisper", audio: Union, *, verbose: Optional = None, temperature: Union = (0.0, 0.2, 0.4, 0.6, 0.8, 1.0), compression_ratio_threshold: Optional = 2.4, logprob_threshold: Optional = -1.0, no_speech_threshold: Optional = 0.6, condition_on_previous_text: bool = True, initial_prompt: Optional = None, word_timestamps: bool = False, prepend_punctuations: str = "\"'“¿([{-", appen

音声認識

OpenAIが提供する音声認識オープンソースWhisperとは(2)

whisperコマンド実行時のエントリーポイントの確認whisperはpipでインストールする設計なので、whisperのsetup.pyファイル内のentry_pointsを確認する。コマンドラインからwhisperコマンドを実行すると、whisper.transcribe:cliが呼び出されることが確認できる。setup(・・・ entry_points={ "console_scripts": , },・・・)エントリポイント whisper.transcribe:cli のコード確認def cli(): from . import available_models def valid_model_name(name): if name in available_models() or os.path.exists(name): return name raise ValueError(

音声認識

OpenAIが提供する音声認識オープンソースWhisperとは(1)

whisperとは?Whisperは汎用音声認識モデルです。多様なオーディオの大規模なデータセットで訓練されており、マルチタスクモデルでもあり、多言語音声認識、音声翻訳、言語識別などの機能を実行できます。ChatGPTで有名なOpenAIがMITライセンスの下にオープンソースとして公開しています。「Whisperアーキテクチャは、エンコーダーデコーダーTransformerとして実装されたシンプルなエンドツーエンドのアプローチです。入力オーディオは30秒のチャンクに分割され、対数メルスペクトログラムに変換され、それからエンコーダーに渡されます。デコーダーは、特殊トークンと組み合わされた対応するテキストキャプションを予測するようにトレーニングされ、この特殊トークンは、単一モデルが言語識別、フレーズレベルのタイムスタンプ、多言語音声の転記、および英語への音声翻訳などのタスクを実行するように導きます。他の既存のアプローチは、より小規模で、より密にペアされた音声テキストのトレーニングデータセットを使用したり、広範囲ながら非監視の音声事前トレーニングを使用したりすること

HealthKit

HealthKitアプリSwiftコードの紹介(4) – HealthKitデータの管理

HealthKitデータの管理と同期を行うためのクラスこのコードは、HealthKitデータの管理と同期を行うためのクラス HealthKitStore とそれに関連するプロトコル HealthKitStoreProtocol を定義しています。このクラスは、HealthKitフレームワークを使用してユーザーのヘルスデータを読み取り、アップロードするための機能を提供します。import Foundationimport HealthKitimport UIKitimport Combineprotocol HealthKitStoreProtocol { func authorizeHealthKit(completion: @escaping () -> Void) func startObservingDataChanges(queue: DispatchQueue?, isBackgroundTask: Bool, completion: @escaping () -> Void) func updateCharac