Mac2台の売却(1台はTrade in)

MacBookは相対的に下取り価格は高めなのだろうけど、それでもやはり古くなれば価格は落ちていく

 

今回の2台の買取価格、

① Intel MacBook Pro 2019モデル(購入は2020年夏、16GB、SSD:512GB、USキーボード

-> 4.2万円(Apple Trade inで、Intel MacのOSアップデートもそろそろ怪しいしね)

 

② M1 MacBook Air late 2020(購入は2022年夏、16GB、SSD:512GB、USキーボード

-> 7.1万円(ネットで調べて評判はよくなかったけど、パソコン工房の土日10%アップで依頼)

M4 MacBook Proの三分の一ぐらいは補填の計算になります、まあ16GB時代は使い方にもよるけど、個人的には終わってます

 

admin

比較のついでにラズパイzeroの実行速度も測定してみた

ラズパイzeroは段違いに遅いことはわかっていたけれども、どれだけ遅いのかをみてみた、ソースコードは共通ですがzeroはシングルコアなのでマルチスレッドの数値はなし

コンパイルもzeroでは実質的にはできないからMac上でクロスでバイナリ作成してます

比較してみると、他に比べて絶望的に遅いことがわかります、まあアプリケーションによって使い分けるわけではありますが

 

admin

ラズパイ5とApple Siliconの速度比較

Apple Siliconとの比較でラズパイ5で実行時間も測定してみた、Apple Siliconの数値は以下のリンクから

https://isehara-3lv.sakura.ne.jp/blog/2025/03/10/m1-vs-m4の性能比較(非常に限定的な場合で)/

<ラズパイ5の実行結果>

ラズパイ5のRustでの実行速度

<シングルスレッド>

pi@rasp5:~/rust/prime_single_thread/src $ cargo run --release
    Finished `release` profile [optimized] target(s) in 0.00s
     Running `/home/pi/rust/prime_single_thread/target/release/prime_single_thread`
2から1000000までの素数:
Elapsed time: 81.208438ms
number of primes: 78498

<マルチスレッド>

pi@rasp5:~/rust/prime/src $ cargo run --release
    Finished `release` profile [optimized] target(s) in 0.01s
     Running `/home/pi/rust/prime/target/release/prime`
2から1000000までの素数:
Elapsed time: 25.209907ms
number of primes: 78498

<Apple siliconとの比較>

予想外にラズパイ5が早いというべきか、Mxが遅いというべきか、概ねM1 Macとラズパイzeroだと概ね速度差は60倍ぐらいあったのが、ラズパイ5だとその差は3倍ぐらい、ということはラズパイzeroと5で実行速度は20倍ぐらいの差があるということになるから、ちょうど2018年ごろのMacBook Air(Intel CPU)の速度ぐらいは出ているということになるだろう、体感速度というのはCPU速度だけではなくファイルアクセスも重要だからSDカードで動かしているラズパイ5はかなりハンディはあるだろう

ラズパイzeroでRustやGolangのコンパイルは実用的な速度で実行できないけど、ラズパイ5なら問題なくできるから、言い換えれば一桁以上の性能差があるということだから、体感というのは概ね当たっているようだ

P.S. 2025/3/12

ラズパイzeroの実行時間は次の記事で追加、予想のさらに下でした

 

admin

M1 vs M4の性能比較(非常に限定的な場合で)

M1 MacBook AirとM4 MacBook Pro 14inchの性能差ということですが、以下のリンクは素数計算をPerplexityでRustコード発生させて実行した時のもの

https://isehara-3lv.sakura.ne.jp/blog/2024/10/23/生成a-igeminiでコード生成rust/

<Geminiで生成したシングルスレッド版 : release mode>
2から1000000までの素数:
Elapsed time: 37.51125ms

<Geminiで生成したマルチスレッド版 : release mode>
2から1000000までの素数:
Elapsed time: 7.397958ms

以上はM1 MacBook Airでの結果


M4 MacBook Proで実行してみると(実行ごとにばらつくから5回実行してベストタイム)

<シングルスレッド版>
2から1000000までの素数:
Elapsed time: 27.473ms(1.36倍)

<マルチスレッド版>
2から1000000までの素数:
Elapsed time: 6.449875ms(1.15倍)

シングルスレッド(マルチコア対応)はそんなものかと思うけど、マルチコア対応のコードの実行速度はイマイチ、考えられる可能性は計算量に比較してオーバーヘッドが大きいせいじゃ無いかと思う

FusionやiMovieなどの立ち上げや書き出しは、はっきりわかるほどの差があるからね、非常に限定的なアプリではありますが、体感ではシングルスレッドの時の速度差ということになります、自分の使い方ではCPU速度よりもメモリとSSDの絶対量確保の方が重要

 

admin

M4 MacBook Pro 14ファーストインプ

M1 MacBook Airのリソース不足(メモリ16GB/SSD 512GB)で買い換えたM4 MacBook Pro 14(メモリ32GBにアップ、SSDは1TB、キーボードはUSモデル)が昨日到着したのでその感想、購入している間にM4 MacBook Airも発表されましたが、まあ欲しい時に買うのがベスト

個人的にAirに比較したProのアドバンテージは、

① Youtubeで音楽流してもスピーカーの音はかなりまとも、Airは音がしょぼい

② 拡張性:Appleの微妙なヒエラルキーでもありますが、HDMIとSDカードスロットはポートレプリケータなくても外出先で使えるのは便利

③ LCD表示品質:Airのような表示のケバケバしさはなくて自然な色合いと感じます、狭ベゼルでもあるのでスペースも有効活用

M4 Pro以上のチップは値段と性能のバランスから考えたら無い選択、使い方からしてもM4で良いかな

<移行>

同じApple siliconなのでM1 MacBook Airからそのままデータ移行、メールアカウントやアプリの認証だけは再設定必要

バックアップ(timemachine)はAirを引き継いでそのまま何の設定もなしにできた、ただしAirの最終状態からの差分ではなくてAirを初回にバックアップしてからの差分をバックアップしたようです

<使用感>

① ブラウザ(Safari, Chorme)、VScode、コンテナ(Podman, Rancher Desktop)立ち上げた状態で、LLM(ollamaの80億モデル)動かした時にメモリ使用量は26GBぐらいで頭打ち、M1 Macではかなりスワップが発生してイエローマークだったけど、今のところ32GBあれば何とかなる

② 速度的にはアプリの立ち上げは高速化されている、特にAutodesk Fusionなどを立ち上げるとよくわかる

③ キーボードのタッチ感(音)が説明は難しいけど微妙に異なるんだよね、箱(筐体)が違うせいかも知れない

④ 電池の充電をきっちり80%で打ち切るような設定になっている、M1 Macまでは充電抑止ロジックがよく分からなかったけれど

⑤ M4からでも無いだろうけど、IPhone15は既に切り替わり、ACアダプタのケーブルが柔軟性があるものに変わっているいるから取り回しが楽になっているのとMagSafeは安全面からもおすすめだと思う

普通にM1 Macの資源引き継いで使えるというありきたりの感想、まだファンは一度も回ってないから、ファンが付いていることすら気づいてない

 

admin

目玉モデルを作る(ラズパイ5+カメラ)

視覚相当機能はラズパイ5の標準カメラで実現しますが、ロボットなので目玉風に格納したい

目玉の中心部にカメラ、カメラを覆うような形でサーボモーターで瞼を動かしてみる

<瞼側>

<眼球側>

サーボモーターを取り付け部分はそのままだと造形できないので、仮にサポートを立てて、後でハンダゴテで溶かしてニッパーで切り落とし、最初からニッパーだとストレスで割れます

 

<カメラ取り付け>

<カメラの外観>

<可動部分>

<動作の動画>

マイムービー – SD 480p

カメラからの画像をどう扱うかはこれから、YOLOとか有力だと思うけど

 

<サーボモーター駆動のコード>

PWM機能はgpiodにないのでソフトでPWM作成

import gpiod
import time

CHIP = 'gpiochip4'  # Raspberry Pi 5では'gpiochip4'を使用
PIN = 18  

chip = gpiod.Chip(CHIP)
line = chip.get_line(PIN)
line.request(consumer="Servo", type=gpiod.LINE_REQ_DIR_OUT)

def set_servo_angle(angle):
    duty_cycle = (angle / 18) + 2.5
    pulse_width = duty_cycle / 100 * 20000  # 20ms周期

    line.set_value(1)
    time.sleep(pulse_width / 1000000)
    line.set_value(0)
    time.sleep((20000 - pulse_width) / 1000000)

try:
    while True:
        for angle in range(80,141, 5):
            for _ in range(10):  # 各角度でn回パルスを送信
                set_servo_angle(angle)
            time.sleep(0.1)
except KeyboardInterrupt:
    pass
finally:
    line.release()

 

admin

 

Mac OSでもWSL相当機能(Lima)があるんだ、

Rancher Desktopを起動しているときにQEMUがメモリを4GB程度消費するので代替え手段あるかと調べてみたら、Rancher DesktopではQEMU以外にmacOSの標準機能であるVirtualization.Frameworkというのがあるようです、その名の通りでMac上でLinuxのVMを動作させることができます

Rancher  DesktopではQEMUとVZ(Virtualization.Framework)の選択ができるようになっていて、

これは切り替えた状態、メモリ消費量(2.7GBとかになってます)は多少緩和されてる模様、ただし速度的にはmacOS nativeの機能だろうから高速化は期待できそうです

WSL相当(使ったことはないけど)ならば、個人の使用でそこそこVMwareの代替えとして使えそうです

多少紛らわしいのですが、Rancher DesktopではLimaを直接呼んでいるわけではなくて、仮想化のためにQEMUあるいはVZを選択しているだけで、Lima自体に仮想化の機能は持たないので、実際の仮想化処理はLimaからQEMUもしくはVZを呼び出します

MacでLimaをインストするならば、

% brew install lima

helpで見てみるとLimaはlimactlのaliasだよと言われます、その名の通りですね

% lima --help
Usage: lima [COMMAND...]

lima is an alias for "limactl shell default".

 

admin

M1 MacBook Air 13インチからM4 MacBook Pro 14インチに、

M1 MacBook Air(メモリ:16GB/SSD:512GB)もSSD容量(画像とか動画はほぼないからツール類が大半)が残り約20%、メモリもメモリプレッシャー(コンテナとFusionがリソースを消費する)が画像のように出始めたので、アップデート

Airで32GBモデルはないので、M4ノーマルでMacBook Pro 14インチでメモリ32GB、SSD 1Tにしました、キーボードはいつもの通りUSキーボードの選択、CTOはメモリ容量(+8GB)とキーボード(US)の2点だけ

従来のMacBook Proと比較すると、HDMIとSDカードが直挿しできるのは何気に便利に感じます、ACアダプタもMagSafeの方が安心できると思う、その分犠牲になるはデザイン性なのだけれども、ボディカラーがスペースブラックというのはデフォルトカラーらしいとオーダーしてから気づきましたが、印象は現物見ないと判断できない

この程度の能力では、まだ生成A.Iをクライアントで動かすには、作成済みのモデルを使うならともかく、学習には全く非力だから計算能力が高まれば、また新たなアプリケーションが生まれていきます

この構成でも数年後には次のモデルに変えるのだろうと思う

 

admin

ラズパイ5のWi-Fi接続遅い問題の解決(SSIDの接続優先順位指定)

タイトル通りですが、やることは二つ

一つ目はLocalを日本に設定して5Gが使えるようにすること

二つ目は複数のSSIDを使っている時に(今回はnaとn接続の場合には)acのSSIDの優先順位を高く設定する

この二つですが、ロケール設定はraspy-configで、優先順位指定は最近のラズパイOSでは設定ファイル編集ではなく、nmcli(おそらくnatwork manager by command line interfaceの略)を使うようです

以下、二つのSSIDの場合の設定例です

設定(数字が大きい方を優先する、デフォルトは0らしい)
$ sudo nmcli connection modify "preconfigured" connection.autoconnect-priority 100

確認方法
$ nmcli connection show "preconfigured" | grep connection.autoconnect-priority

connection.autoconnect-priority:        100

$ nmcli connection show "他のssid” | grep connection.autoconnect-priority

connection.autoconnect-priority:        0

この場合、デフォルト設定の方がac接続なのでそこの優先順位を上げました、これで設定を有効(リブートあるいはnmcliで指定)すれば大丈夫です

ブラウザからの速度確認で、n接続では30Mbps程度でしたが、この程度の速度になりました、ac接続としてはそれほど高速でもないですが、相対的にはかなり速くはなってます

 

admin

ローカルマシンでLLMを使ってみる

軽量のプラットホームであれば、パソコンでも動作可能とのことなので、M1 Mac(16GB)でポピュラーと思われるOllamaを動かしてみました、メモリは16GBはないと動きません、遅くても良いからとラズパイ5(8GB)で動かそうとしたらメモリ不足で動きませんでした

インスト方法は、モデルの変換も記述されています

https://qiita.com/s3kzk/items/3cebb8d306fb46cabe9f

OllamaはLLMのフレームワークなので実際に使うためにはモデルのインストが必要になります

<コマンドラインでのやり取りの例>

起動方法は、

% ollama run elyza:jp8b

一方APIを使う場合には、

% ollama serve 

でollamaを起動しておいて、

https://highreso.jp/edgehub/machinelearning/ollamapython.html

を参考にスクリプトを作成して、

import requests
import json

url = 'http://localhost:11434/api/chat'

data = {
    "model":"elyza:jp8b",
    "messages": [
        {
            "role": "user",
            "content": "千葉県の名産品を教えて、"
        }
    ],
    "stream": False
}

response = requests.post(url, data=json.dumps(data))
response_data = response.json()
print(response_data)

このスクリプトを実行すると、

のようなjson形式のレスポンスが返ってきます、コンソールの対話モードに比較するとMacが考えている時間がかなり長い、おそらく10秒ちょっとかな、

リソースの消費状況は、

 

こんな感じなので、やはりラズパイ5では実用上は無理かな、

 

admin